Para usar las descargas a través de FTP, lo único que se necesita es que
el Administrador del lugar haya configurado el servidor para acceso
anónimo. Cualquiera puede conectar al servidor (generalmente
ftp.NombreDelDomino.Extensión) con el nombre de usuario anonimo y la
clave de acceso en blanco; se puede revisar la estructura de directorios
permitida y descargar o subir ficheros (arrastrar y soltar). Este tipo
de descargas se usa mucho en algunos servidores de código libre (los he
visto en GNU/Linux -imágenes ISO de CD Vivos, manuales y código fuente
de Universidades, etc.-).
La otra parte está en que un servidor esté configurado para acceso
restringido a determinados usuarios (con su nombre de usuario y su
contraseña para acceder). El sistema es el mismo: servidor, usuario y clave.
Para actualizar el servidor, por ejemplo, de Linux-Sur.org, uso FireFTP,
una extensión instalada en Mozilla Firefox. A la izquierda tienes el
servidor local (tu ordenador) y a la derecha el servidor remoto (el
alojamiento contratado para ese dominio). Localizas el fichero o la
carpeta a gestionar y arrastras a derecha o izquierda para subirlo o
bajarlo.
¿Velocidad?. Pues sí, se nota la velocidad de descarga entre HTTP y FTP.
Canonical, la empresa responsable del desarrollo de Ubuntu, la
distribución GNU/Linux más popular del mercado, ha anunciado un
acuerdo con Yahoo! cuya primera consecuencia será la inclusión por
defecto de su motor de búsqueda en el navegador web Firefox
predeterminado en Ubuntu sustituyendo al de su habitual aliado,
Google. En principio, parece que el cambio responde únicamente a
motivos económicos o lo que es lo mismo, Yahoo! ha puesto más dinero
encima de la mesa que Google.
Los términos económicos del acuerdo no han sido revelados y sus
consecuencias “serán implementadas tan pronto como sea razonablemente
posible”, indicó Rick Spencer, responsable de desarrollo de la versión
de escritorio de Ubuntu en una lista de correo.
En todo caso, los cambios ya serán visibles en la próxima edición de
Ubuntu 10.04 que será publicada en el mes de abril y afectarán al
motor de búsqueda y a la página de inicio predeterminada. Obviamente
el usuario que lo desee podrá cambiar Yahoo! por Google o por
cualquier otro proveedor.
“Los ingresos obtenidos por el acuerdo con Yahoo! ayudará a Canonical
a ofrecer los recursos necesarios a los desarrolladores para mantener
el libre desarrollo de Ubuntu y de su plataforma”, explicó Spencer.
La medida ha generado algo de controversia entre algunos entusiastas
de Ubuntu preocupados por la adopción por defecto de un motor que no
representa la preferencia mayoritaria de los usuarios. Más cuando
Google ha sido el buscador por defecto hasta ahora y financia una
buena parte de los ingresos del navegador web Firefox. Parece que el
motivo del cambio responde únicamente a aspectos económicos: Yahoo! ha
puesto encima de la mesa más dinero que lo que estaba pagando o estaba
dispuesto a pagar Google.
http://www.muycomputer.com/Actualidad/Noticias/Ubuntu-cambia-a-Google-por-Yahoo/_wE9ERk2XxDDIc5CwmWyscwORltH4zqIJoJFtOvBO0Iel1Ll1HfpHH1qFL3rLY2nQ
El primer televisor sin ningún tipo de cables ni el de alimentación
El fabricante chino de televisores Haier ha presentado en el CES 2010
de las Vegas (la feria más importante de tecnología para el consumo a
nivel mundial) un televisor LCD de 32 pulgadas que es completamente
inalámbrica, sin ningún tipo de cables.
La novedad que aporta Haier es que además de ser capaz de recibir
imágenes en alta definición 1080p vía una conexión inalámbrica, recibe
la alimentación necesaria para funcionar a través de una nueva
tecnología llamada WiTricity que permite eliminar cualquier tipo de
necesidad de cable.
WiTricity es una nueva tecnología basada en la resonancia magnética
desarrollada por una empresa del mismo nombre (Witricity Corp.)
fundada por ingenieros del MIT que permite la transmisión de energía a
larga distancia con una alta eficiencia y sin la necesidad de cables.
La imagen se transmite a través de la tecnología WHDI (Wireless Home
Digital Interface) que permite el envío de imagen de alta calidad no
comprimida en formatos de 1080p, 1080i y 720p en la banda de 5 GHZ con
un alcance de 30m pudiendo atravesar paredes y otros obstáculos. Esta
claro que con este nuevo modelo se inicia el camino para que los
cables desaparezcan del entorno audiovisual en nuestros hogares.
Es un primer modelo aún un poco rudimentario, pero seguro que en poco
tiempo será una auténtica realidad del todo operativa que veremos
habitualmente, aunque en el debe de esta opción hay que tener en
cuenta que estaremos transmitiendo a través de alta frecuencia una
potencia considerable, necesaria no sólo para transmitir datos sino
energía, y siempre queda la duda del efecto de estas “microondas”
sobre la salud.
Más información de la feria: http://www.cesweb.org/
http://www.somoslibres.org/modules.php?name=News&file=article&sid=3138
La década que acaba de concluir se caracterizó por un gigantesco y
acelerado desarrollo en el ámbito de las tecnologías de la
información. Al revisar los archivos de nuestra publicación quedan de
relieve los principales prodigios y productos tecnológicos.
Diario Ti: En este artículo resumiremos algunas de las tecnologías y
productos que marcaron la diferencia, destacando en un período no solo
caracterizado por el desarrollo acelerado, sino también por la extrema
competencia entre los diversos actores de la industria.
Google
Google fue fundada en 1998, pero indudablemente los últimos diez años
han sido "la década de Google". Ya en julio de 2000, el buscador
ocupaba el primer lugar entre las preferencias de los usuarios de
Internet. Al contrario que las alternativas existentes, Google logró
presentar los resultados verdaderamente relevantes.
Ninguna otra empresa ha logrado en la misma medida que Google
interconectar e interrelacionar la red de redes. Para muchas personas,
Google se ha convertido en una extensión de su propio cerebro. Así,
quienes necesitan información solo tienen que "googlearla"
Paralelamente, Gooogle se ha convertido en mucho más que un buscador,
y se está posicionando en la mayoría de los sectores de la industria
tecnológica.
Banda ancha
Internet de banda ancha es actualmente un elemento tan natural como la
electricidad en un gran número de hogares.
Facebook, Myspace, Twitter, etc.
Las comunidades y medios sociales concentran una parte cada vez mayor
del tiempo que los usuarios de Internet pasan en línea. El actor más
importante es, sin duda, Facebook. El servicio vincula a los
internautas entre sí, dándoles la posibilidad de crear redes y
subredes donde intercambiar información, fotografías, vídeo, y todo lo
que, en resumen, constituye su vida digital.
Para muchos, Facebook se ha convertido en la denominación por
excelencia de la comunicación electrónica por encima de líneas
divisorias de toda índole. Asimismo, el servicio causa adicción entre
un número considerable de usuarios.
Conexión inalámbrica a Internet
Cuando en 2000 se comenzó a hablar de WLAN y IEEE802.11B, la
tecnología tenía precios prohibitivos. Actualmente, todo tipo de
dispositivos, desde televisores a teléfonos móviles, incorporan
soporte WLAN. La década pasada marcó el inicio del fin de los cables.
iPod
Los primeros reproductores MP3 con disco duro fueron lanzados en 2000
y recordamos la impresión que causó Creativ Nomad, con su disco duro
de 6 GB y batería para 3 horas.
Sin embargo, sería Apple la empresa que dominaría el mercado,
comenzando en 2001 con el primer reproductor que combinaría un diseño
atractivo con facilidad de uso y buena capacidad. Rápidamente, iPod
era un concepto conocido por todos, marcando a la vez el inicio de una
era de gloria para MP3.
Apple lanzaría posteriormente su servicio de venta de música iTunes
Music Store, como una extensión del iPod, dándole así la posibilidad
de lucrar con la venta de títulos musicales. Actualmente, la posición
de Apple como líder en el segmento no se ve amenazada por ningún otro
actor.
iPhone
Con su pantalla táctil, impresionante facilidad de uso y, por cierto,
la vinculación con Apple Store, Apple irrumpió en el mercado para el
lanzamiento del iPhone hace tres años. El aparato en sí marcó además
un cambio de paradigma para los dispositivos de comunicación móvil.
iPhone está actualmente en su tercera generación y hasta hace poco la
competencia ha tenido dificultades para ofrecer productos
equivalentes. La plataforma Android, liderada por Google, ha resultado
recientemente en importantes lanzamientos, como Motorola Droid, con
funcionalidad y rapidez que incluso superan la del iPhone.
Spotifty y Wimp
La masificación de los reproductores MP3 significó un contundente
dolor de cabeza para la industria discográfica debido a la piratería a
gran escala de la música. La industria instauró diversas medidas, como
por ejemplo la contraproducente tecnología DRM (Digital Rights
Management) que sólo incrementó el distanciamiento entre la industria
y el público.
En este contexto, para fin de década surgieron importantes novedades
de tecnología streaming, como Spotify y Wimp. Ambos servicios ofrecen
millones de títulos musicales, ya sea gratuito con interrupciones
comerciales, o sin publicidad por un modesto importe mensual. Spotify
mejoró recientemente el servicio, permitiendo escuchar la música sin
que sea necesario estar conectado a Internet o escucharla en el
teléfono móvil.
Pantallas planas
Ninguna otra tecnología era tan esperada, por tan largo tiempo, como
las pantallas planas de TV. El mercado estaba más que maduro cuando
los precios comenzaron a descender a niveles aceptables hace 6-7 años.
Para entonces, los precios de las pantallas planas para PC también
habían bajado a precios razonables, que les llevaron a desplazar y
dejar en la obsolescencia a los monitores CTR.
Vídeo de alta resolución
Las grandes pantallas planas con millones de píxeles plantearon una
nueva necesidad durante la década: material de alta resolución (o High
Definition – HD). Así, la tecnología DVD ya no era suficiente y
surgieron dos plataformas antagonistas, HD-DVD y Blu-ray. Finalmente,
la victoria fue para Blu-ray.
Hacia fines de la década, un volumen cada vez mayor de contenidos es
transmitido en formato HD, a lo que se agregan los juegos y cámaras de
vídeo de alta resolución.
La nube
Durante los últimos dos años, la "nube" o cloud computing se han
convertido en un concepto cada vez más conocido. La intención es que a
futuro los usuarios no tendrán que almacenar sus datos localmente en
el PC, sino todo será almacenado en la red. Lo mismo se aplicará al
software y servicios que anteriormente ha sido necesario instalar en
el PC.
De esa forma será posible, por ejemplo, acceder a los datos y
programas independientemente del lugar del mundo donde el usuario se
encuentre, y desde cualquier PC.
Aún hay incertidumbre sobre el concepto de día a día 100% basado en la
nube. Sin embargo, cada vez hay mayores avances, como por ejemplo el
proyecto Chrome de Google.
Navegación GPS para consumidores
En 2000, los satélites militares estadounidenses de posicionamiento
global, GPS, fueron puestos a disposición de civiles, para uso
gratuito. Así, la navegación dirigida, sin brújula, se convirtió en
una realidad para consumidores. La industria comenzó rápidamente a
lanzar productos que alcanzaron gran popularidad.
Fecha: 30/Diciembre/2009 (10:30) | Categoría(s): Otros temas |
Comentarios: 3
El excelente film de James Cameron, que está arrasando en las
taquillas de todo el mundo, es un ejemplo más del potencial de GNU/
Linux.
José F. Alcántara
Versvs
Interesante debate sobre seguridad el que se ha abierto esta semana
con la aparición de dos extensiones para firefox descargables e
instalables desde Mozilla Add-ons y presuntamente infectadas con un
troyano. Más adelante se ha comprobado que una de ellas estaba limpia.
Más allá de lo trivial, esto abre toda una reflexión sobre los
procesos de calidad y verificación por parte de Mozilla de todas esas
extensiones (software, en último caso) descargables desde su
repositorio. A este respecto quiero destacar el post de Sergio, que
creo que tiene mucha razón cuando recomienda ser prudente con el uso
del navegador para tareas sensibles. Esto es obvio para muchas
personas (entre los lectores de este blog imagino que obvio para casi
todos), pero para la gran mayoría pensar en esos términos será algo
nuevo porque no se lo han planteado antes.
Añadiría, además, que en nuestro papel de prescriptores tecnológicos
(hablo por mí y mi entorno, sin ir más lejos) es importante que aparte
de recomendar el uso de software libre y prácticas más seguras
hiciéramos un especial hincapié en la prudencia y la sensatez.
Evidentemente, los sistemas 100% seguros, fiables e invulnerables no
existen. (Cualquiera que nos diga que su software o su sistema en
general es 100% seguro puede ser inmediatamente catalogado como
cretino sin miedo a equivocarnos.) Pero donde la técnica no puede
llegar, si nos puede acercar (nunca llegaremos, obv) un buen conjunto
de buenas prácticas. Al fin y al cabo, cuando hablamos de seguridad
somos el eslabón más débil y tiene sentido reducir la inseguridad
derivada del mal uso mismo de las herramientas.
Quiero comentar también una pregunta que hace Oscar en el blog de
Sergio, que fue el auténtico disparador para escribir este post: un
comentario que me quedó largo y al final he decidido ascender a post.
Dice Oscar: «Realmente no tengo el tiempo ni los conocimientos para
probar el código de uno u otro navegador. ¿cuáles serían las pautas
para escoger el mejor o el mas seguro?»
Aquí viene mi respuesta:
Preguntar por las pautas para reconocer y escoger el navegador más
seguro es una pregunta tan amplia que requiere una respuesta cuya
extensión daría para escribir un blog (no un post, un blog) sólo para
ir desglosando esas pautas.
¿El software libre es más seguro que el privativo? De entrada es
auditable con mayor facilidad, lo cual no implica mayor seguridad, tan
sólo que si hay código malicioso es posible que sea descubierto con
menos retraso. El uso de software libre tiene incontables ventajas,
pero éste no tiene porque ser intrínsecamente más seguro siempre. Es
posible que lo sea en términos generales debido a la facilidad de
auditoría (si no propia del usuario, sí de la comunidad --tan
importante para que un proyecto de software sea verdaderamente libre),
pero puntualmente puede ser inseguro como todo software.
A buen seguro que se aprovechará este incidente para lanzar miedo,
incertidumbre y dudas sobre Firefox. Nadie debería alarmarse, sin
embargo. Firefox sigue siendo una opción razonablemente segura que,
usado con buen tino, conlleva menos riesgos que otras opciones.
Eso sí, en el tiempo por venir y si la tasa de usuarios de Firefox
sigue creciendo, esta cuota de usuarios devendrá el mayor problema de
seguridad para Firefox y sus programadores. Pensemos por un momento
como lo haría un desarrollador de código malicioso: me va a costar el
mismo tiempo (no tiene porqué, pero asumamos eso como una aproximación
de orden cero correcta) desarrollar mi ataque contra un navegador
específico. ¿Invierto mi tiempo para atacar al 1% de usuarios, al 20%,
al 40%? Si asumimos también la inexistencia intereses concretos que
decanten mi elección de objetivo, mi ataque irá dirigido al navegador
que me abra la puerta de más víctimas potenciales: el navegador más
utilizado. De entrada, esto convierte a IE8 en un blanco preferido,
seguido de Firefox. No debería sorprendernos, por tanto, que en el
futuro se hagan cada vez más frecuentes los ataques específicos contra
este navegador que tiene el atractivo añadido (para el atacante) de
ser multiplataforma.
Por otra parte, no me apasionan verdaderamente los estudios
comparativos de seguridad entre diferentes navegadores. La utilidad de
esos estudios comparados la pongo en cuarentena porque estas
comparativas someten a los navegadores a ataques ya conocidos y los
ataques más devastadores son siempre los innovadores, los no
conocidos. Dicho de otra forma, equivale a exacerbar la seguridad
aeroportuaria porque una vez hubo un atentado con aviones cuando todos
sabemos que el próximo ataque masivo no tendrá lugar de la misma forma
que el anterior: tendrá otra forma inesperada y nos cogerá por
sorpresa. Esa nueva forma inesperada y la consecuente sorpresa son la
base del éxito del atacante. Por eso creo que los benchmarks aportan
información diferente a la que muchas veces se espera obtener de
ellos.
Digo que pongo en cuarentena la utilidad de estas comparativas como
medidores de seguridad, pero no la información más sutil que se deduce
de ellos: es inadmisible que un navegador sea vulnerable a ataques
conocidos, demuestran que el equipo a cargo de ese software no ha
hecho su trabajo como debiera. Y, tristemente (porque pone en peligro
a multitud de personas), no es infrecuente que se descubran bugs y
vulnerabilidades en IE (no es fijación, es que nos guste o no, IE
sigue siendo el navegador más utilizado en términos absolutos en
febrero de 2010) que ya existían en versiones arcanas de este
navegador o que el mismo tenga bugs sin parchear durante meses. (A la
hora de escribir este post, IE8 lleva 8 días sin parchear un bug
moderadamente crítico que permite la exposición de datos sensibles a
un atacante remoto; casi ná. Para 2 años con otras vulnerabilidades
sin parchear.)
Desde que una nueva vulnerabilidad se anuncia hasta que se parchea, la
aparición de xploits que abusen de ese fallo es exponencial. Decía
antes que los ataques innovadores son más peligrosos porque se da por
sentado que los ataques ya conocidos harán que se modifique el
software en cuestión para mejorar su defensa. Si este parche no llega,
el atacante tiene todas las ventajas: un ataque bien conocido (algo
que facilita el abuso de la vulnerabilidad) para el que el defensor no
se ha preparado. Sin afirmar nada acerca de la seguridad de un
software concreto, ese tipo de laxitud con los parcheos suponen todo
un argumento para dejar de utilizar un software determinado.
Y todo esto lo digo tranquilamente, sin olvidar que todo software es
susceptible de tener errores (por supuesto, también nuestro amado
Firefox) que lo hagan susceptibles a ataques. Pero, ¿qué vamos a hacer
con eso? No se puede evitar, lo único que se puede hacer es parchear
cuanto antes. En eso Mozilla ha dado la de cal y la de arena en apenas
unos días: un sistema de verificación del software de su repositorio
que se ha demostrado imperfecto (quizá por confianza) que tardará en
recobrar la confianza que poseía entre el público permitió que se
colara malware, sin embargo han sido muy rápidos en la limpieza de las
extensiones y la supresión de esa amenaza concreta, que además
demostró ser menor de lo que parecía al principio.
[Y sí, no está libre de fallos ni lo estará nunca, pero en estos
momentos no voy a sorprender a nadie si digo que recomiendo usar
Firefox. ¿Acaso esperaban ustedes otra cosa? La última recopilación de
extensiones de seguridad que vi la hicieron los chicos de Security by
default.]
http://www.versvs.net/
http://www.rebelion.org/noticia.php?id=100378
Ya sé que este post puede ser el inicio de una de esas grandes flame
wars, pero aún así me arriesgaré viendo que hay muchos partidarios y
también detractores de esta distribución. La noticia original está
publicada en MuyComputer, pero me he permitido añadir un par de
párrafos más que para mi son importantes a la hora de responder esa
pregunta.
En la noticia de MuyComputer señalan que el mundo del software libre
está muy dividido por el gran número de distribuciones Linux
disponibles, pero hay una que es claramente la referencia en el
segmento, algo que provoca todo tipo de reacciones de amor… y de
odio.
Canonical y su producto estrella, la distribución Ubuntu, están
comenzando a sentir las consecuencias desfavorables del éxito: al ser
muy conocida, Ubuntu es también la distribución más criticada, y
también lo es la actitud de Canonical, que algunos la califican como
“la Microsoft del software libre”.
Lo cierto es que las últimas noticias importantes que han rodeado a
Ubuntu y Canonical denotan ciertas decisiones controvertidas, tal y
como han señalado en OpenSourcerer, a saber:
La inclusión de desarrollos basados en Mono es polémica en si misma,
ya que este desarrollo es criticado por muchos puristas del Open
Source. El lanzamiento de Ubuntu One fue igualmente controvertido por
tratarse de un servicio cerrado y propietario, que próximamente
anunciará una versión para Windows.
Aplicaciones legendarias como GIMP u OpenOffice.org dejarán de formar
parte de ciertas ediciones de Ubuntu 10.04, aunque seguirán
disponibles opcionalmente. El debate sobre si debería o no haber
aplicaciones y soluciones basadas en código cerrado en los
repositorios de Ubuntu sigue igualmente al rojo vivo.
Canonical ha decidido cambiar el motor de búsqueda de su distribución,
que hasta ahora era Google y que pronto será el motor de Yahoo! -que
curiosamente llegó hace meses a un acuerdo publicitario en el segmento
de las búsquedas con Microsoft. Todo esto hace que muchos usuarios del
sistema operativo Linux estén especialmente sensibles con la actitud
de Canonical, que no obstante está siendo vista por sus partidarios
como una empresa que está haciendo todo lo posible por difundir las
prestaciones de este sistema operativo.
De hecho, los argumentos en contra de Canonical han sido rebatidos por
uno de los trabajadores de esta empresa en un comentario al artículo
original. Graham Bins contestaba con un interesante punto de vista a
ese post:
En ningún momento se eliminan los derechos fundamentales para elegir
cualquier opción que deseeis. ¿No queréis Mono? Eliminadlo. ¿Queréis
usar OpenOffice.org en vuestro netbook en lugar de Google Docs?
Instaladlo usando el Centro de Software. ¿Queréis GIMP? Instaladlo
usando el Centro de Software. ¿No queréis usar Yahoo? Cambiad vuestro
motor de búsqueda por defecto.
Que algunas preferencias por defecto cambien no es malo, creo, sobre
todo si son tan fáciles de cambiar para que estuviesen como antes (y
eso no os afectará si sois usuarios experimentados). Cierto, hay
cierto riesgo de que usuarios noveles estén confundidos por dichos
cambios, pero algunas instrucciones sencillas les ayudarían con las
menores molestias.
Ubuntu nunca ha significado ser libre a toda costa. Se trata del
pragmatismo, de desarrollar una distro que sea fácil de usar para
todos, pero particularmente para los nuevos usuarios. No creo que
ninguno de esos cambios vayan contra esa filosofía.
http://www.somoslibres.org/modules.php?name=News&file=article&sid=3175
por : Javier Pastor: 22 Dic 2008, 14:02
Una nueva fuente lumínica desarrollada por la empresa GlowPaint se
asemeja a la de las barras fluorescentes, pero en realidad la luz es
mucho más duradera, y es capaz de aguantar 15 años encendida sin
recargas adicionales de ningún tipo.
La tecnología además es barata y no tóxica, y de hecho tal y como
anuncian sus desarrolladores “esto tiene el potencial de ahorrar miles
de millones en costes energéticos en todo el mundo”. La tecnología en
la que se basa este invento se denomina Litroenergy, y aunque el
nombre sea algo peculiar, sus creadores aseguran que su autonomía no
es ninguna broma
De hecho, han enviado las especificaciones y una muestra de los
productos basados en esta tecnología a la NASA y en particular al
concurso llamado “Create the Future Design Contest” en el que
pretenden ganar por la originalidad y excelente rendimiento de la idea
http://www.theinquirer.es/2008/12/22/fuente-de-luz-que-dura-15-anos.html
Hoy han presentado conjuntamente Microsoft y Novell un balance de
resultados de la la alianza en busca de la interoperatibilidad entre
Windows y SUSE que parece haber cuajado en las grandes empresas. De
hecho, a fecha de hoy, se han realizado 36 operaciones en nuestro país
en compañías como BBVA, Generalitat de Catalunya, Endesa o Prisa que
conllevan decenas de miles de servidores con SUSE. Microsoft es hoy -
menuda sorpresa- el mayor vendedor de SUSE.
SUSE Linux y Windows, un matrimonio casi perfecto.
José Manuel Enríquez, director general de Novell, desveló en el
encuentro con medios especializados algunos detalles de esta
sorprendente alianza entre los propietarios de dos de los principales
sistemas operativos usados en entornos empresariales. El marco de
partida de este acuerdo firmado a finales de 2006 es que en el 70% de
los servidores instalados conviven distribuciones Linux con Windows.
Esto y la tendencia a virtualizar todo tipo de entornos hicieron de la
necesidad de convivir una oportunidad de mercado.
Y los resultados de este acuerdo de cooperación a largo plazo ya son
medibles: 36 contratos firmados en España con grandes organizaciones
(200 en Europa), decenas de miles de servidores que se benefician de
la interoperatibilidad, intercambio de patente para lograr el mayor
grado de entendimiento entre SUSE y Windows (se consigue incluso la
virtualización inversa: operar Linux desde Windows o Windows desde
Linux).
Para José Antonio Laguna, el máximo responsable de Microsoft de este
acuerdo, su compañía tenía dos caminos: no hacer nada y centrarse en
Windows o colaborar con el mundo Linux de una forma profesional. De
ahí la elección de Novell que, junto con Red Hat, se reparten el
mercado Linux de pago.
La colaboración es total. De hecho, Microsoft ha renovado la compra de
certificados de SUSE por valor de cien millones de dólares y los vende
directamente a sus clientes. Y la promoción es conjunta. Además,
Novell ofrece a los clientes de Microsoft soporte extendido a otras
distribuciones Linux como Red Hat. En este terreno empresas como Santa
Lucia o Portugal Telecom se están beneficiando del soporte técnico de
Novell.
Competencia entre Office y OpenOffice
Eso sí, la alianza de Novell y Microsoft no es total. En otro frente,
en el de OpenOffice, Novell compite a muerte contra el gigante Office.
De hecho, actualmente -de la mano de Telefónica- tiene una oferta
destinada a pymes en la que oferta una licencia de mantenimiento de
esta popular suite por 2,5 euros y medio por mes y puesto de trabajo.
"Pero en lo que sí estamos trabajando es en un mayor entendimiento
entre los formatos ODF y XML", nos comenta Enríquez, director general
de Novell.
http://www.muycomputerpro.com/Actualidad/Noticias/MS-el-mayor-vendedor-de-SUSE/_wE9ERk2XxDAJDO-1eJmj54VMK7ZXVljtIr3jrHjbe7Bljw3REqap95zYBqyNW7qs
Tecnologias de Información
Hace unos días la revista Forbes publicó su tradicional lista de las
personas con las mayores fortunas del planeta. Sin embargo poco o nada
hacen por la pobreza del mundo, el contraste es que los
multimillonarios estan relacionados con el area de informática y las
telecomunicaciones. Aquí los 10 primeros, y y el puesto que ocupan en
la clasificación general.
(1) Carlos Slim Helu, propietario de América Móvil. 53.500 millones de
dólares.
(2) Bill Gates, fundador de Microsoft. 53.000 millones de dólares.
(6) Larry Ellison, fundador de Oracle. 28.000 millones de dólares.
(24) Sergey Brin, co-fundador de Google. 17.500 millones de dólares.
(24) Larry Page, co-fundador de Google. 17.500 millones de dólares.
(28) Azim Premji, fundador de Wipro Technologies. 17.000 millones de
dólares.
(33) Steven Ballmer, CEO de Microsoft. 14.500 millones de dólares.
(37) Paul Allen, co-fundador de Microsoft. 13.500 millones de dólares.
(37) Michael Dell, fundador de Dell. 13.500 millones de dólares.
(43) Jeff Bezos, fundador y CEO de Amazon. 12.300 millones de
dólares.
http://www.somoslibres.org/modules.php?name=News&file=article&sid=3267