A ver, que parece que os creéis que soy un agente de Microsoft, nada más lejos de la realidad
(me río porque ahora mismo llevo puesta una camiseta de Debian que me regalaron por mi cumpleaños el año pasado). Aviso, es un
post largo.
explorer escribiste:Aquí no se trata de defender a nadie ni nada, y tampoco en atacar. Al menos, no me interesan las "S.O. wars".
Dices que Linux también se cuelga. Y estoy de acuerdo contigo: si hay un problema con algo del hardware, tiene problemas y cae. Pero... una máquina no debería tener problemas de hardware, ¿no?
En teoría tienes razón, en la práctica las cosas se rompen. Por eso los servidores tienen todos sus componentes duplicados: dos fuentes de alimentación, discos duros
hot-swap, dos o cuatro tarjetas de red, memoria
hot-swap (cada vez más normal en servidores modernos), incluso las unidades de proceso se pueden cambiar en servidores Sun y en
mainframes, por ejemplo. ¿Y por qué se ponen todos estos componentes por duplicado si el sistema es tan estable? Pues porque el hardware no lo es.
explorer escribiste:Porque, si no los tiene, un Linux debería funcionar sin problemas durante mucho tiempo. Pero mucho.
Using text Syntax Highlighting
explorer@hxxxxxx0:~$ w
00:18:18 up 565 days, 22:21, 2 users, load average: 0,08, 0,09, 0,08
USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT
fer pts/2 223.red-207-127- 15:06 4:38 0.30s 0.00s sshd: fer [priv]
explorer pts/5 132.26.210.88.dy 00:18 0.00s 0.18s 0.00s w
Coloreado en 0.000 segundos, usando
GeSHi 1.0.8.4
Esta máquina que te muestro lleva un año y medio funcionando, sirviendo un centenar de webs y más de 500 buzones de correo.
Esto lo único que demuestra es que este servidor conectado a Internet no ha recibido actualizaciones en mucho tiempo. Debian Lenny salió hace algo más de una año y ya ha tenido 4 actualizaciones. Cada una de las actualizaciones (así, de memoria) ha requerido reiniciar el sistema pues traía un kernel más reciente). Tener un sistema conectado a Internet sin aplicar los parches de seguridad es andar buscándose problemas, sobre todo con servidores web. El concepto de mi
uptime es mayor que el tuyo se ha quedado ya obsoleto en nuestro mundo de máquinas virtuales y concentradores de carga que distribuyen el tráfico. Lo que importa es la disponibilidad del sistema, no el sistema en sí.
explorer escribiste:Es solo un ejemplo que no quiere rebatir nada de lo que has dicho, por favor. Si tu dices que los Linux que tu has instalado son tan inestables como los Windows, pues vale, me lo creo.
¡Uy, un ataque ad hominem
! ¿Dónde he puesto eso? Lo único que he puesto es que Linux también se cuelga y varios enlaces donde se puede ver que eso pasa, no me lo invento yo.
explorer escribiste:Esa máquina es de las "profesionales", y por eso va tan bien.
Los servidores tienen otro tipo de hardware y contratos de mantenimiento. Si algo se estropea, llamas al fabricante y según el contrato en unas horas tienes un técnico que te cambia la pieza. Lo cual demuestra que todo se estropea y por eso tienes ese servicio de recambios.
explorer escribiste:Por aquí tengo otro servidor, que está en un ordenador doméstico, funcionando sin parar desde el 2006:
Using text Syntax Highlighting
atari@xxxxxxxx:~$ w
00:22:03 up 99 days, 20:01, 1 user, load average: 0,08, 0,08, 0,02
USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT
atari pts/0 132.26.210.88.dy 00:22 0.00s 0.30s 0.01s w
Coloreado en 0.000 segundos, usando
GeSHi 1.0.8.4
Lleva menos tiempo funcionando porque se ha reiniciado más a menudo, claro: solo tiene 512Mb y cuando llega una oleada de SPAM, se agota. Lo vamos a jubilar enseguida. Ya son muchos años
Si ése es el servidor de correo de una asociación sin ánimo de lucro, pues lo puedo entender. Si pones un servidor de correo para una empresa mediana/grande con hardware doméstico, te estás buscando problemas (el correo electrónico es lo más importante para mucha gente. Una interrupción del servicio de correo no es agradable, te lo aseguro). Tienes razón que una pasarela de correo no necesita muchos recursos, así que es un servidor perfecto para virtualizarlo, se le asigna esa cantidad de memoria virtual y a correr. El servidor físico (mejor dicho, el
cluster de servidores físicos) sobre los que funcionan sí tiene hardware profesional. Si se rompe uno de los servidores físicos, la alta disponibilidad del sistema hace que la máquina virtual se migre a otro de los servidores físicos. Como mucho hay un reinicio del sistema. La mayoría de las veces ni eso, pues gracias a agentes de monitorización como Nagios (
http://www.nagios.org) sabemos cuándo ha fallado uno de los componentes del servidor físico y podemos migrar la máquina virtual en caliente a otro servidor físico. Así podemos arreglar los problemas de hardware sin dejar de ofrecer la disponibilidad de los recursos a nuestros clientes, que son los que nos pagan los sueldos
Lo que comentas de que Linux no es gratis. Linux SÍ es gratis. Las copias de Linux SON de difusión libre. Otra cosa es que estés comprando una licencia con un soporte de asistencia al usuario. Windows NO es gratis. Tienes que comprar una licencia quieras o no.
Linux es libre ('free' quiere decir tanto gratis como libre). Las copias de Red Hat no son de difusión libre, sin embargo su software sí es libre, como lo prueba la existencia del proyecto CentOS. Para el usuario final Windows es 'gratis' porque viene con el PC que se ha comprado. Y en cuanto a la gratuidad de Linux, pues como decía aquél: Linux es gratis si tu tiempo no vale nada
A lo que realmente te refieres es a la hora de la instalación y mantenimiento de los sistemas. Pero eso es independiente del sistema operativo: todos requieren horas/hombre para ser atendidos.
Y, lo que más me fastidia... lo de que hay que, obligatoriamente, comprar una licencia profesional de RedHat porque los jefes quieren saber que pueden contar con un teléfono a quien poder llamar por si algo se rompe...
Eso, lo que me demuestra, es que los jefes NO confían en sus propios técnicos. Y si tienen a freaks de Linux, unos inútiles contratando gente. ¿Acaso se compra soporte de Windows? ¿En qué consiste? ¿Micro$oft se compromete a modificar el sistema/controladores si tenemos problemas?
Pues claro que se compra soporte de Microsoft. Claro que Microsoft soluciona problemas cuando los llamas (abres un tique y suelen enviar rápidamente un
hotfix si pueden reproducir el problema). Cuando tienes aplicaciones cuyo funcionamiento significa la existencia misma de tu empresa, las empresas están dispuestas a pagar para garantizar que todo siga funcionando. No todas las empresas pueden tener en nómina a Alan Cox para solucionar un problema con la controladora RAID sobre la que se ejecuta la base de datos que tiene toda la información de la empresa. Por eso pagas a Red Hat o a Microsoft o a HP o Oracle para que si deja de funcionar lo arreglen.
Otro motivo para usar Red Hat en vez de Debian es el concepto de soporte durante 7 años. Ahora va a salir Red Hat 6, y si lo instalas en un servidor sabes que ese servidor va a recibir actualizaciones hasta el 2017. Con Debian, pues depende. A veces 3 años, a veces dos y medio, a veces cuatro. Las empresas quieren saber de cuándo a cuándo se puede usar un producto con garantía del fabricante. Debian sale cuando está lista (when it's ready), eso no se lo puedes decir al jefe, la verdad.
Para familia y demás lo tengo claro, si hay que poner un Linux se va a poner CentOS 6 en cuanto salga. Me encanta Fedora, pero andar actualizando máquinas cada año no es mi manera de pasar mi tiempo libre cuando voy de visita.
Las dos máquinas anteriores son dos Linux Debian, que se instalaron a partir de dos DVD, que se obtuvieron los dos exactamente de la misma manera: se bajó al quiosco de la esquina y se compró una revista de Linux, que traía de regalo esos discos. Uno en el 2006 y otro, en el 2009. 6€ cada uno. ¿Soporte profesional? Un correo electrónico al desarrollador, o mandar un correo a la lista de Debian, o consultar un foro, y últimamente, Google. Recuerdo con simpatía un par de casos en los que, el propio desarrollador, nos respondió por correo en cuestión de minutos. En Linux, el soporte te lo puede dar, naturalmente, una empresa, pero también, su comunidad.
Si buscas mi nombre en Google verás un montón de resultados en listas de proyectos libres. Uso el soporte de la comunidad (si no, no estaría en este foro); muchas veces, la mayoría, es mejor que el de las empresas. Ahora bien, no todos los negocios pueden esperar a que alguien responda la pregunta en el foro x. El problema cuesta pasta real, así que se coge un teléfono y se contrata una solución profesional. Cuesta dinero, pero esperar a que alguien te responda (si te responden) también puede costar dinero.
Repito que no quiero entrar en polémicas, que no llevan a ningún sitio, ni pienso decir que uno es mejor que otro. Yo solo cuento que para lo que yo necesito, a mí me vale. En mi vida diaria manejo diez máquinas, todas ellas con Linux, incluso en mi teléfono móvil. Y es cierto que alguno tiene problemas, como mi Nokia N810, que por culpa de un proceso, se le agota la memoria. Para todos los demás, yo *exijo* que deben funcionar como un reloj. Mi tiempo es oro, y si tengo que reiniciar una máquina, estoy perdiendo dinero.
Bueno, que es cierto que hay que poner el sistema adecuado a cada tarea. Por eso, Windows se utiliza de forma masiva en los hogares, y Linux... pues está claro
dónde se utiliza de forma masiva...(Al final me ha salido la vena fanboy... ¡Lo siento!)
Los relojes también se estropean
Las supercomputadoras usan casi todas Linux, está claro. Ahora bien, esas no son PC normales, son
clústers interconectados que procesan trabajos en paralelo. No son los servidores Linux para los que sueles encontrar vacantes en Infojobs. Hay otras empresas en las que casi todo es Linux u otros tipos de UNIX gratuitos: los proveedores de Internet, por ejemplo.
En las empresas 'normales' y en los hogares lo que más se ve es Windows. La facilidad de montar una red con recursos compartidos, seguridad profesional (kerberos) y manejo de clientes por medio de '
group policies' (lo siento, no manejo servidores Windows en español, no tengo ni idea de cómo se ha traducido eso) no existe en el mundo Linux. Montar un servidor ldap+kerberos para autenticación/autorización en Ubuntu es algo no apto para todos los públicos (
https://help.ubuntu.com/community/SingleSignOn); montar lo mismo en Windows es cuestión de instalar el sistema, ejecutar
dcpromo y darle unas veces al botón siguiente. Cuando se estropea el sistema en Windows, entonces necesitas saber mucho de LDAP, Kerberos y DNS para solucionar el problema, pero la verdad sea dicha, el directorio activo de Microsoft aguanta carros y carretas, lo han hecho muy bien porque quien controla la autenticación de los sistemas, controla el centro de datos. Todo se integra perfectamente con directorio activo: Exchange, Sharepoint, SQL Server, IIS, ...
Por ello es fundamental que proyectos como FreeIPA (
http://freeipa.org) y Samba 4 vean la luz rápido y se extiendan. El equivalente del directorio activo ahora mismo es NIS(+), y la verdad, no es seguro, todo va sin codificar y no se puede usar en empresas grandes en las que haya que mantener la información separada entre los distintos grupos.
Aún hay esperanza
, FreeIPA versión 2 va a salir dentro de poco. Samba 4 es posible que se publique en su versión estable antes de final de año (
http://news.samba.org/developers/Samba_Team_Blog_3/). Ambos proyectos son fundamentales para la futura adopción de Linux en la empresa 'normal' (no en la empresa dedicada a la tecnología). Ambos son ya muy prometedores, y su futuro va a ser aún más espectacular (sobre todo FreeIPA versión 3 cuyos planes incluyen el poder manejar la autenticación de máquinas/usuarios tanto UNIX como Windows de manera nativa, sin agentes de sincronización ni otras historias). Ahora sólo falta que alguien de Debian porte Freeipa a Debian, claro
Disculpad el rollo. Espero que haya quedado clara mi posición respecto a Linux.