View this page "Aprender Linux"

63 views
Skip to first unread message

Paulo

unread,
Aug 31, 2008, 4:59:53 PM8/31/08
to Linux-Sur

Postea aqui comandos, manuales, trucos, etc


Click on http://groups.google.com/group/linux-sur/web/aprender-linux -
or copy & paste it into your browser's address bar if that doesn't
work.

Paulo

unread,
Sep 1, 2008, 5:08:38 PM9/1/08
to Linux-Sur
WINE Vs Cedega, CrossOverOffice y Bourdeoux

Listado de aplicaciones soportadas por Wine ordenadas por tema.
http://appdb.winehq.org/appbrowse.php?catId=0

Que es Wine
http://enciclopedia.us.es/index.php/WINE
WINE es un proyecto para permitir ejecutar programas diseñados para la
API de Microsoft Windows bajo sistemas operativos de la familia Unix.
Todavía no es totalmente eficaz, continuando bajo desarrollo.
El nombre deriva del acrónimo recursivo Wine Is Not an Emulator (Wine
no es un emulador). Técnicamente, la afirmación del nombre es cierta,
pero para muchos de sus usuarios WINE se comporta de manera similar a
un emulador, lo que produce una expansión alternativa del acrónimo
como WINdows Emulator (emulador de Windows).
WINE es software libre bajo los términos de la licencia LGPL.
En junio de 2008, y tras quince años de desarrollo pero siendo
ampliamente usado en sus versiones anteriores, se publica la versión
1.0[1].



Wine Vs CEDEGA(WineX)
Cedega (anteriormente conocido como WineX) es un fork no libre (y de
pago) de Wine (de cuando la licencia de éste último no era LGPL sino
licencia BSD) desarrollado por TransGaming Technologies. El prAograma
Cedega está específicamente diseñado para ejecutar juegos de ordenador
escritos para Microsoft Windows bajo GNU/Linux. Como tal, su principal
objetivo es implementar la API de DirectX.
una parte considerable de la comunidad de software libre rechaza el
uso del programa CEDEGA. Hay tres razones principales para esto.
"Vuelta gratis" en el movimiento del software libre [editar]
Muchos en la comunidad protestan por las practicas empresariales de
TransGaming de obtener beneficios rápidamente a costa del proyecto
Wine, sin dar nada a cambio. TransGaming se hizo con el código fuente
del proyecto Wine original cuando estaba bajo la licencia MIT (no
copyleft) y esta licencia no ponía ninguna restricción a la forma en
que TransGaming debía licenciar el código. TransGaming, a diferencia
de otras compañías con modelos similares, decidió licenciar su
software como software propietario. TransGaming publica porciones del
código vía CVS, sin embargo adjunta restricciones legales las cuales
provocan que no sea software libre. Cedega incluye soporte para muchos
tipos de CD basados en protección de copia (especialmente SecuROM y
SafeDisc), el código por el cual TransGaming dice estar obligado por
contrato a no revelar.
Por todo esto, el proyecto Wine cambió su licencia a la GNU Lesser
General Public License (LGPL). Esto significa que cualquiera que
publique una versión modificada de Wine tiene que publicar el código
fuente bajo una licencia compatible con la licencia LGPL (y en
consecuencia software libre). TransGaming dejó de usar código obtenido
de Wine tras el cambio de licencia, sin embargo esto ha vuelto a
suceder recientemente con TransGaming integrando ciertas partes LGPL
de Wine en Cedega y poniendo esas partes de código en sus servidores
públicos.
Reacción a la inclusión en distribuciones [editar]
Cuando algunas distribuciones GNU/Linux, especialmente Debian GNU/
Linux y Gentoo, decidieron empaquetar software de TransGaming,
TransGaming amenazó con hacer su licencia todavía más restrictiva para
evitar esto.
Cita de la licencia de Cedega (en inglés):
"Note that while this license does permit certain kinds of non-
commercial distribution of pre-compiled binary packages of Cedega,
doing so on a large scale is discouraged, as it affects TransGaming's
ability to continue to improve and develop the code. TransGaming
reserves the right to change the license under which TransGaming-owned
copyright code is made available, and will not hesitate to do so if
non-commercial distribution of pre-compiled binary packages adversely
affects the financing of continued development."
Controversia general acerca de las capas de compatibilidad de Win32
[editar]
Algunos usuarios de GNU/Linux sienten que en el alentador desarrollo
de Cedega, se desincentiva el desarrollo de ports nativos de juegos,
como aquellos realizados por Loki Software, o incluso títulos
exclusivos para GNU/Linux.
-
*************************************************************************_
Usando Wine
http://bulmalug.net/body.phtml?nIdNoticia=1164

Wine permite ejecutar aplicaciones windows, en sistemas linux, a
través de una serie de librerias, funciones , API's y programas
desarrollados desde cero. Es decir, que no necesitas tener instalado
ese inestable, inseguro, problemático y caro sistema operativo ...

Pàgina1/1
Hay mucha gente opina que es un tonteria usar el WINE; puesto que lo
que hay que hacer es desarrollar aplicaciones nativas para linux y
dejarse de emuladores, la respuesta es contundente: El primer paso es
la posibilidad de que se ejecuten las aplicaciones, luego cuando se
popularicen (y crezca la demanda), ya se encargan los propios
fabricantes de realizar la versión nativa del software. Es lo que ha
pasado con la suite Hancom Office, Magic, etc...
Características de WINE:
Soporte para la ejecución de programas DOS, Win 3.x y Win9x/NT/
Win2000. (la mayoría de los controles Win32 están soportados).
Uso opcional de DLL externas a Wine (p.e. las DLL originales del
Windows).
Gráficos a traves del X11 (lo que posibilitat la ejecución remota a
través de servidores X), consola en modo texto.
Bastante avanzado soporte del DirectX para juegos.
Muy buen soporte del sonido y de dispositivos de entrada.
Impresión: soporte de drivers nativos Win16 y soporte interno
PostScript.
Modems y dispositivos serie soportados.
Winsock TCP/IP.
Interfaz ASPI (SCSI): soporte de escanners, grabadoras de CD's , ...
Unicode, soporte de idiomas
Depurador y registro configurable de mensajes
Desktop-in-a-box or mixable windows
Voy a explicar brevemente como realizar una instalación y
configuración desde cero del Wine al mismo tiempo que os muestro un
ejemplo práctico de su uso: la ejecución del programa de envío de
mensajes cortos a móviles winsms de Azrael. (en espera de la versión
nativa en Kylix del mismo ;-)
Lo primero que tenemos que hacer es bajarnos la última versión del
wine, podemos bajarnos el codigo fuente, o un paquete binario según
nuestra distribución, yo voy a explicar el proceso en el caso de que
optemos por la instalación a partir del código fuente.
Para hacerlo, primeramente nos pasaremos por Wine Development HQ:
http://www.winehq.com/, desde nos llevará a la dirección donde
descargar la última versión liberada, por ejemplo,
http://www.ibiblio.org/pub/Linux/ALPHA/wine/development/Wine-20020122.tar.gz
Una vez descomprimido de la forma usual:
tar zxvf Wine-20020122.tar.gz
Nos creará un directorio, con el código fuente, listo para ser
compilado, aunque antes tendremos que ejecutar el script configure
$ cd wine-20020122
$ ./configure
Puede ocurrir, como en este caso que nos falte alguna libreria, como
en este ejemplo:
*** Note: You have cups runtime libraries, but no development
*** libraries. Install the cups-devel package or whichever package
*** contains cups.h to enable CUPS support in WINE.

*** Note: Your system appears to have the FreeType 2 runtime libraries
*** installed, but 'freetype-config' is not in your PATH. Install the
*** freetype-devel package (or its equivalent on your distribution) to
*** enable Wine to use TrueType fonts.
En este caso no está informado que como no tenemos instaladas las
librerias de desarrollo del CUPS ni del paquete freetype-devel, no
tendremos soporte para ambas en Wine, aunque eso no impedirá la
correcta compilación del mismo.
Si todo ha ido bien, ahora si que podemos empezar a compilar:
$ make depend && make
Ahora como root, tendremos que realizar la instalación de nuestro
recien compilado Wine:
# make install
Una vez instalado, el siguiente paso es la configuración del Wine,
esta se basa en un fichero de texto, que se encuentra el directorio
home del usuario, dentro de .wine. Lo mejor es copiar el que viene de
ejemplo y luego modificarlo para adaptarlo a nuestro sistema.
$ mkdir ~/.wine/
cp documentation/samples/config ~/.wine/config
Aquí os dejo los cambios que he realizado a ~/.wine/config para
adaptarlo a mis necesidades:
[Drive A]
"Path" = "/floppy" <---
"Type" = "floppy"
"Label" = "Floppy"
"Serial" = "87654321"
"Device" = "/dev/fd0"
...
[Drive C]
"Path" = "/wine/c" <----
"Type" = "hd"
"Label" = "MS-DOS"
"Filesystem" = "win95"
...
Lo que indica que la disquetera está en el directorio /floppy, tal y
como se puede comprobar con:
$ grep fd0 /etc/fstab
/dev/fd0 /floppy auto noauto,user 0 0
En cambio para la unidad principal de Wine, la típica unidad c:\ del
winbugs, he creado el directorio /wine/c. Una vez en ejecución, este
directorio y todo lo que tengamos en él, se comportara como si fuera
realmente la unidad c:.
De forma que cuando en el fichero ~/.wine/config tenemos algo como:
[wine]
"Windows" = "c:\\windows"
"System" = "c:\\windows\\system"
Realmente en mi máquina y con esta configuración se encuentra en /wine/
c/windows/ y /wine/c/windows/system/.
Por lo tanto necesitaremos crear cierta estructura en nuestro
directorio /wine/c:
cd /wine/c
mkdir -p windows/system
mkdir -p windows/Start\ Menu/Programs
El campo "Type", puede tomar los siguientes valores: hd (disco duro o
un directorio), cdrom (CD-ROM), floppy (disquetera) y network (Red).
Una vez correctamente configurado, le siguiente paso será crear el
tristemente famoso registro de winbugs, ejecutando:
programs/regapi/regapi setValue < winedefault.reg
Si no tenemos el programa regapi, lo que tendremos que hacer es
compilarlo de la siguiente forma:
$ cd programs/regapi
$ make
$ l regapi
$ regapi -> ../../wine
$ cd ../../
$ programs/regapi/regapi setValue < winedefault.reg
Esto lo que hace es crear el necesario registro directorio .wine del
usuario en cuestión, tal y como podemos ver:
$ l ~/.wine/system.reg
-rw-r--r-- 1 carlos users 16048 ene 26 16:15
/home/carlos/.wine/system.reg
Para verificar que todo funciona y esta correctamente configurado,
podemos copiar el binario de la calculadora de windows y ver si
realmente funciona o no:
$ cp /mnt/dos/windows/calc.exe /wine/c/windows/
$ wine calc
o
$ wine "c:\windows\calc.exe"
Por último, vamos a utilizar el Wine para ejecutar el excelente
programa de envío de mensajes SMS a móviles desarrollado por Azrael;
http://www.winsms.org en nuestro querido Linuz. Lo primero será
bajarnos el winsms de la página web, por ejemplo del mirror gentileza
de NetVicious: http://webs.ono.com/NetVicious/ayudasms.zip.
Ahora lo descomprimimos y lo copiamos, por ejemplo a /wine/c/windows
(que esta incluido en el Path, de forma que podemos ejecutarlo
simplemente tecleando wine azrasms.exe

$ unzip ayudasms.zip
$ cp azrasms.exe /wine/c/azrasms.exe
$ wine azrasms.exe
Agradecer a Azrael, a NetVicious y todos los que han colaborado en
este gran programa, que ahora también podemos disfrutar los usuarios
de Linux gracias al proyecto WINE. :-)
Azrael, ¿como vas con el Kylix? ;-)
Enlaces relacionados:
WINE: The Open Source Way to Run Windows Application.
http://www.unixreview.com/documents/s=1781/urm0112j/0112j.htm
Can WINE Ferment Move to Linux? (artículo en Wired):
http://www.wired.com/news/business/0,1367,49719,00.html
WinEnLinux by hackman: http://members.tripod.com/~rebeli0n/tec/winenlinux.txt
Wine User Guide en formato pdf: ftp://ftp.ibiblio.org/pub/Linux/ALPHA/wine/development/wine-doc.pdf.gz
WineX. Soporte del DirectX en Wine: http://www.transgaming.com/
CodeWeavers: http://www.codeweavers.com/
WinSMS de Azrael: http://www.winsms.org/
--
Carlos Cortes(aka carcoco)
http://bulma.net/todos.phtml?id_autor=132

-
****************************************************************************-
CrossOver Office
http://es.wikipedia.org/wiki/CrossOver_Office

CrossOver  
Desarrollador:
CodeWeavers
Última versión:
6.2 (2 de octubre de 2007)
S.O.:
Linux, Mac OS X, Solaris
Género:
Capa de compatibilidad
Licencia:
Propietaria
En español:

Sitio Web:
www.codeweavers.com
 
CrossOver Office es un programa comercial que permite ejecutar
aplicaciones populares de Windows en un sistema Linux o Mac sin
necesidad de una instalación de Windows. Es una derivación de WINE con
varios parches añadidos, y herramientas de configuración más fáciles
de usar.
Crossover Office está producido por CodeWeavers, que emplea a varios
programadores de WINE y contribuye con código al proyecto WINE de
código abierto según GNU LGPL.
Las aplicaciones soportadas son Microsoft Office 2007, 2003, XP, 2000
y 97, Microsoft Outlook 2000, Microsoft Access 2000, Microsoft Visio
2000, Microsoft Internet Explorer 6, Macromedia Dreamweaver MX,
Macromedia Flash MX, Adobe Photoshop, Lotus Notes, Quicken y Mapsonic.
El programa también se integra correctamente con GNOME y KDE.
-********************************************************************_
http://frankscorner.org/index.php?p=bordeaux
About Bordeaux:

The Bordeaux Technology Group is a software services and development
company specializing in Windows compatibility software. Users of Linux
systems from time to time find themselves in the need to run
specialized Windows software. The Bordeaux suite enables access to
these programs and data in a seamless and low cost manner without
requiring licensing of Microsoft Technology. The Bordeaux Group also
provides migration services and support for alternative operating
systems specializing in Windows compatibility.

Paulo

unread,
Sep 3, 2008, 5:52:00 PM9/3/08
to Linux-Sur
itada por Yonderboy el Martes, 12 Agosto de 2008, 09:45h Printer-
friendly Email story
desde el dept. software-libre
Educación
pobrecito hablador nos cuenta: «Durante el curso universitario
2008/2009 se tendrá lugar el III http://espana.barrapunto.com/article.pl?sid=08/08/12/0946216&from=rss

Concurso Universitario de Software Libre. El objetivo principal del
Concurso Universitario de Software Libre es fomentar la creación y
contribuir a la consolidación de la comunidad del Software Libre en la
Universidad. Con la intención de seguir con el progresivo aumento en
la cuantía de los premios, que en la primera y segunda ediciones
fueron de 6.000 y 15.000 euros respectivamente, se encuentra abierto
el plazo para la presentación de patrocinios. Los estudiantes
universitarios podrán realizar la inscripción entre el 15 de
septiembre y el 10 de octubre de 2008 a través de la página web.»

Paulo

unread,
Sep 3, 2008, 5:53:18 PM9/3/08
to Linux-Sur
http://americas.barrapunto.com/article.pl?sid=08/08/26/1450206&from=rss
Terminaron las Jornadas Regionales de Software Libre
editada por JJ el Martes, 26 Agosto de 2008, 15:07h Printer-
friendly Email story
desde el dept. crónicas-y-sucedidos
Noticias
lukio nos cuenta: «La semana pasada se realizaron las 8vas Jornadas
Regionales de Software Libre en la Universidad de Belgrano en Buenos
Aires, Argentina. Pasaron alrededor de 1300 asistentes al evento y se
dieron unas 120 charlas aproximadamente. Entre los disertantes
"importantes" se encontraban Chris Hoffman de Fundación Mozilla , Rik
van Riel de Red Hat, Jon "maddog" Hall de Linux International, Dag
Wieers, Mario Bonilla por Google y Raymond Hettinger como
desarrollador del core de Python. El mejor momento fue en la
presentación de una charla plenaria. Originalmente, el fundador de
Canonical (y "turista espacial") Mark Shuttleworth tenia programada
una charla durante el evento, pero no pudo venir, entonces los
organizadores reasignaron su charla.En un escenario oscuro con
imagenes de planetas y estrellas y con la música de "2001: Odisea del
espacio" con el sonido a un volumen bien alto, Jon "maddog" Hall
aparecio vestido de astronauta y diciendo que el era Shuttleworth en
el año 2040 y así dio todo el resto de su charla frente a la ovación
de más de 400 personas en la sala. Este año el evento fue organizado
por el Grupo de Usuarios de Software Libre de Capital Federal,
CaFeLUG. La conferencia ya ha pasado por varios ciudades distintas en
diferentes años. En el 2009 las Jornadas Regionales se realizarán en
Chile.»

Paulo

unread,
Sep 5, 2008, 3:43:37 PM9/5/08
to Linux-Sur

Paulo

unread,
Sep 5, 2008, 3:49:57 PM9/5/08
to Linux-Sur
PROGRAMAS DE DESCARGA P2P, P2M, WebDownload, Descarga directa, etc
-******************************************_
red gnutella LinuX
Programas con soporte del protocolo gnutella
BearShare (Windows)
Casbos (Multiplataforma, escrito en Java)
Gnucleus (Windows)
FrostWire (Multiplataforma, escrito en Java)
LimeWire (Multiplataforma, escrito en Java)
Mutella (GNU/Linux, Unix)
Shareaza (Windows)
gtk-gnutella (GNU/Linux, Unix)
MLDonkey (GNU/Linux, Windows)
Acquisition (Mac OS X)
iMesh (Windows)

programas p2p
eMule, BitTorrent, Kazaa, Gnutella, Freenet, Entropy, GNUnet, aMule,
Ares Galaxy, Soulseek, Audiogalaxy, eMule Plus, Ktorrent, MLDonkey,
Napster, Shareaza, Pando_(programa), Marabunta...

LimeWire: (adware) red de Gnutella es una aplicación que te permite
intercambiar ficheros de usuario a usuario usando la red de Gnutella.

Gpl Shareaza Plus 2.3.0.0   Español Variante de Shareaza de
prometedora velocidad y funcionalidades ...para los protocolos
Gnutella, eDonkey y BitTorrent lo más.

Con Pando puedes enviar y recibir todo tipo de ficheros de gran tamaño
(incluso directorios completos) de forma muy sencilla, utilizando tu
cuenta de correo electrónico.

Para ello únicamente debes registrarte como usuario del sistema
(registro gratuito) y utilizar este programa, que te permite crear
“paquetes” de envió con los ficheros y carpetas que quieras. Después,
sólo tienes que introducir la dirección de correo electrónico de la
persona a la que se lo quieres enviar, y listo.

-******************************************_
p2p extracto de wiki
El inicio
La primera aplicación P2P (Peer-to-peer, o entre pares) fue Napster,
en 1999. Sin embargo, aunque las transferencias de los archivos tenían
lugar directamente entre dos equipos, Napster utilizaba servidores
centrales para almacenar la lista de equipos y los archivos que
proporcionaba cada uno, con lo que no era una aplicación perfectamente
P2P. Aunque ya existían aplicaciones que permitían el intercambio de
archivos entre los usuarios, como IRC y Usenet, Napster fue el primero
en especializarse en los archivos
…En diciembre de 1999, varias discográficas estadounidenses demandaron
a Napster y también músicos reconocidos como Lars Ulrich, batería del
grupo Metallica, reclamaron su cierre. La demanda, lejos de asustar a
los usuarios, dio publicidad al servicio, de forma que en febrero de
2001 Napster había llegado a su cima con 13,6 millones de usuarios en
todo el mundo.de música mp3.
El camino hacia el presente
Acabar con las redes centralizadas era relativamente sencillo, pues
bastaba con cerrar el servidor que almacena las listas de usuarios y
archivos compartidos. Pero tras el cierre de cada servidor surgieron
otras aplicaciones más modernas, y particularmente como gran logro fue
la creación de redes descentralizadas, que no dependen de un servidor
central, y por tanto no tienen constancia de los archivos
intercambiados.
Clientes nuevos y la aparición de la red Gnutella, fueron sustituyendo
a Napster y Audiogalaxy, entre otros. Luego en el 2002, se dio un
éxodo masivo de usuarios hacia las redes descentralizadas, como Kazaa,
Grokster y Morpheus.
La RIAA intentó, también por la vía judicial, acabar con los nuevos
servicios descentralizados, y que permitían compartir varios tipos de
archivos (no sólo mp3), pero Grokster y Morpheus ganaron sus juicios
en abril de 2003.
Luego apareció eDonkey 2000, aplicación que se mantuvo junto a Kazaa
como líder del movimiento P2P. Más tarde la aparición de otros
clientes basados en el protocolo de eDonkey 2000, como Lphant,
Shareaza, eMule y sus Mods, y otros menos conocidos como aMule y
MLDonkey para Linux, causó el progresivo declive del programa original
eDonkey 2000.
Otro paso importante lo marcó el protocolo Bittorrent, que pese a
tener muchas similitudes con eDonkey 2000 proporciona, según los
desarrolladores, una mayor velocidad de descarga, pero a costa de una
menor variedad de archivos, y una menor longevidad de estos en la red.
La unión de ambos protocolos se ha logrado en el programa Lphant.
-******************************************_
El emule trabaja mejor con los archivos grandes, activar el sistema de
puntos
LinuX
-******************************************_
WEBCACHE
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Webcaché es una nueva opción que se ha incorporado en programas P2P de
la red ed2k, como son Lphant y algunos mods de eMule (como el eMule
Webcache, eMule Morph, etc), y hace uso del proxy-caché. Se trata de
una máquina usada por empresas que ofrecen internet, los ISP; y que
generalmente se utilizan para ahorrar tráfico de datos a los ISP en la
navegación por Internet. Estas máquinas "guardan" en su memoria lo que
acaba de pasar por ella en el tránsito de un PC a otro.
Los usuarios que usan la opción Webcaché de estos programas, suben un
trozo del archivo que comparten. De esta forma, se permite que otro
usuario que pida al usuario fuente inicial ese trozo de archivo, en
realidad le pida el mismo trozo de archivo al proxy-caché, que lo
tiene en su memoria; la cual es mucho más rápido que el uploader. El
usuario 2 se lo pide entonces al proxy caché y se baja el archivo a
una gran velocidad sin gastar ancho de banda del uploader. Estas
máquinas proxy tienen un ancho de banda gigantesco, más que cualquier
conexión actual entre usuarios, con lo cual te permiten aprovechar la
velocidad de conexión, siempre que no se colapsen.
[editar] Véase también
Historia de las aplicaciones P2P
Lphant
Descarga directa
Gestor de descargas
Kademlia
P2M
[editar] Enlaces externos
webcache.com.es, Página especializada sobre el Webcaché
www.webcache.6x.to, Portal español sobre Webcaché
WEBCACHÉ: Qué es y cómo configurarlo Enlace en el que se explica como
configurar el Webcaché para Lphant


-******************************************_
P2M
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Peer2Mail  

Desarrollador:
Ran Geva
Última versión:
1.61 Build #5 / 28 de agosto de 2006
S.O.:
Windows 98/Me/XP/2000/NT
Género:
Compartición de Archivos
Licencia:
[Propietaria]
En castellano:
No
Sitio Web:
www.peer2mail.com
Peer2Mail (abreviado P2M) es un programa que permite almacenar y
compartir archivos en cuentas de correo. P2M parte el archivo que
quieres compartir o almacenar, lo comprime y lo encripta. Entonces,
envía las partes del archivo uno por uno a una cuenta de correo. Una
vez P2M ha subido todos las partes del archivo, puedes descargar las
partes y usar P2M para unirlas y obtener de nuevo el archivo original.
Tabla de contenidos
[ocultar]ir
1 Historia
2 Funcionamiento
3 La unión
4 Evolucion
5 Artículos relacionados
6 Webs de interés
[editar] Historia
La posibilidad hoy en día de emplear cuentas privadas para el
intercambio de ficheros por el aumento de la capacidad de
almacenamiento, ha facilitado el uso del P2M; el cual surge ante los
problemas que encuentran algunos usuarios al usar programas P2P como
eMule. El principal inconveniente es que en programas P2P no se
consigue siempre una gran velocidad y un rango de tiempo corto para
descargar un archivo.
Entre las causas de todo estos problemas en los P2P es que en algunos
de ellos las fuentes al estar reguladas por un sistema de colas por
puntos (rating) ocasiona que estas sean muchas veces bastantes
grandes, causando con ello una demora en la descarga. También influye
el tipo de conexión de internet que tenga el usuario, tanto el que
comparte como el que baja el archivo.
Además el P2P es rechazado por muchos usuarios denominados leechers,
ya que el P2P se basa principalmente en la filosofía de que todos los
usuarios deben compartir.
A pesar de las grandes ventajas presentes en el P2M, al igual que en
la descarga directa, trae consigo una desventaja; la cual es que el
archivo a descargar no esta presente en el computador del usuario que
lo comparte, a diferencia de los P2P; lo que permite que exista la
posibilidad de ser borrado el archivo, si éste atenta contra intereses
de personas o empresas, o del provedor del servicio de correo. En todo
caso esta desventaja se compensa con creces si lo que se desea es
priorizar la velocidad.
Aunque, gracias a programas creados sin animo de lucro como el Reenvía
de JoePc y el Gmail Resender de Caulfield, es mucho más fácil crear
más semillas para que la gente pueda descargar...minimizando así los
daños de los servidores.
[editar] Funcionamiento
P2M funciona de la siguiente manera: los archivos compartidos se
dividen en segmentos (segments) que son hospedados en servidores de
correo (los más usados son walla, gmail y yahoo!) los segmentos no
suelen ser mayores a 10mb y vienen impuestos por el tamaño máximo de
archivo adjunto que dicte el servidor de mail donde son alojados,
mediante programas se accede a estas cuentas creadas por los usuarios
con el fin de subir los archivos a compartir y dichos programas
recopilan y descargan todos los segmentos de la cuenta, una vez
descargados, el programa une todos los segmentos para reestablecer el
archivo integro tal y como se subió al servidor.
[editar] La unión
Actualmente el paso de la unión de los segmentos descargados se
realiza con programas externos al P2M ya que los servidores de e-mail
han encontrado formas de detectar los archivos de P2M, alternativas a
la unión del P2M exites entre otras Kamaleon y CamuflaWeb.
[editar] Evolucion
El bloqueo por parte de los servidores a llegado a los programadores a
desarrollar derivados del p2m como openp2m, Durie etc
[editar] Artículos relacionados
Historia de las aplicaciones P2P
P2P
Descarga directa
Gestor de descargas
Kademlia
Webcaché
Derecho de copia privada
Darknet
Entrevista a David Bravo, en Wikinoticias
P2P anónimo
[editar] Webs de interés
TurboP2M
Web Oficial P2M
P2MDescargas V5
esP2M (Descargas P2M en español)
Directorio de webs P2M
Spanish P2m (SP2M)
Denkinews
P2m Team
Elite-P2M
P2MFuture
ZonaP2m

-******************************************_
LinuX
Descarga directa
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Método utilizado para permitir descargar archivos de forma directa, a
diferencia de lo que ocurre al usar programas P2P. Otra característica
es de no dividir los archivos en segmentos, como lo hace el P2M.
Este tipo de descarga no requiere que el usuario tenga un programa
específico para realizarse, solo se necesita el navegador; aunque en
algunos casos esta permitido o es factible el uso de un Gestor de
descargas como programa de optimización de la descarga de los
archivos.
[editar] Tipos de Descargas directas
La Descarga directa se realiza mediante:
la descarga de los archivos almacenados en un servidor (o Host), en el
que el usuario que lo recibe se conoce como Cliente.
Una variación del primero, a través de empresas en el internet que
ofrecen el servicio de almacenamientos de archivos.
Entre las empresas que ofrecen el servicio de almacenamientos de
archivos están YouSendIt, Rapidshare, turboupload, etc. Cada empresa
ofrece diferentes tipo de almacenamiento y descargas, los que varían
en el tipo de archivo, tamaño, tiempo de permanencia del archivo, y el
número de descargas del archivo.
[editar] Usos
La Descarga directa es el método de descarga ideal y más usado por los
usuarios que poseen una pobre conexión de internet, o que por diversos
motivos, no pueden utilizar programas P2P. Además es el método
preferido por muchos usuarios denominados leechers, ya que a
diferencia del P2P, este método no se basa en la filosofía de que
todos los usuarios deben compartir por igual.
[editar] Artículos relacionados
Web hispana de descargas directas
Historia de las aplicaciones P2P
P2P
P2M
Gestor de descargas
Kademlia
Webcaché
Derecho de copia privada
Cliente-servidor
Servidor de correo
Servidor web
Servidor de aplicaciones
Servidor FTP
Darknet
Entrevista a David Bravo, en Wikinoticias
P2P anónimo


-******************************************_

Paulo

unread,
Sep 6, 2008, 7:03:06 PM9/6/08
to Linux-Sur
PONENCIAS EN INTERNET
http://www.ubuntu-es.org/

Reactivacion de #C.U.P.I.E.
Enviado por meisok el Dom, 20/07/2008 - 16:49 Sobre ubuntu-es

Hola a todos!
Como muchos sabeis, hace unos meses comenzamos con el proyecto #CUPIE
con la idea de poder compartir conocimientos entre todos los usuarios
a través de charlas en uno de los canales IRC de FREENODE.
Despues de un tiempo ofreciendo una charla semanal, y como habreis
notado, no se ha podido continuar con el proyecto.
La causa no es otra que la falta de ponentes para las charlas, ya que
la asistencia a las mismas a sido bastante buena en general, llegando
algunas de ellas a tener casi setenta personas.
El proyecto nos sigue pareciendo muy interesante, no sólo por ser una
forma más amena e interactiva de compartir el conocimiento, sino
tambien para crear una via más donde poder estrechar lazos entre todos
los usuarios de la comunidad.
Por todo esto, nos gustaría lanzar una invitación a todo aquel que
quiera ayudar a relanzar #CUPIE compartiendo a través de charlas en el
canal sus conocimientos.
Para participar, lo único que teneis que hacer es prepararos un tema
para la charla. No hace falta ser ningún experto para poder hacerlo
(Aunque sí necesitamos que las charlas tengan un mínimo de calidad, es
decir, que os las preparéis bien, con documentación fiable.). Recordad
que siempre hay usuarios que están empezando y saben mucho menos que
vosotros, que sin duda, agradecerán que compartais vuestro
conocimiento.
Cualquier usuario que esté interesado o tenga alguna duda, puede
ponerse en contacto con meisok o fetova en el canal #CUPIE del
servidor irc.freenode.net o si lo prefiere, indicandolo directamente
en este hilo y ya nos encargamos nosotros de ponernos en contacto con
él.

Paulo

unread,
Sep 6, 2008, 8:56:29 PM9/6/08
to Linux-Sur
Crackeando WPA/WPA2 usando ubuntu 7.10 y un router de Telmex
http://es.youtube.com/watch?v=mJHryhtg1_U

VIDEO Screencast: probando Ubuntu Netbook Remix
http://es.youtube.com/watch?v=M7iG0TZM45M

VIDEO HOWTO install ubuntu linux on a ps3 (part 2)
http://es.youtube.com/watch?v=TYNTt2mq8L8

VIDEO WiiMote with WDM / Ubuntu / Beryl / Candles
http://es.youtube.com/watch?v=ALqduQfm09c

VIDEO epsxe emulador de Playstation en ubuntu 7.04
http://es.youtube.com/watch?v=uJq1ymp39Yo

VIDEO Paz Padilla y Ramón García hablando de informática
http://es.youtube.com/watch?v=y4Pa977KHHw

Paulo

unread,
Sep 9, 2008, 2:35:40 PM9/9/08
to Linux-Sur
Instalar KDE en Español
En consola sudo apt-get install kubuntu-desktop

En modo grafico Synaptic (Sistema-Administración-Gestor de paquetes
Synaptic) y luego en buscar anote kubuntu-desktop, marque para su
instalación, y luego busque algunos paquetes extras tales como:
kdeartwork (paquete con muchas cosas para personalizarlo),

kde-i18n-es (idioma español), kicker-kickoff (menu al estilo
Opensuse) y superkaramba (increíble Eyecandy)

Paulo

unread,
Sep 9, 2008, 4:46:57 PM9/9/08
to Linux-Sur
Compilar 2 lo siento en ingles
https://help.ubuntu.com/community/CompilingEasyHowTo
* CompilingEasyHowTo

Contents

1. Compiling things on Ubuntu the Easy Way
1. Step 1: Prep your system for building packages
2. Step 2: Getting the software you want
3. Step 3: Resolving Dependencies.
4. Step 4: Build and install.
5. Links
6. Comments

Compiling things on Ubuntu the Easy Way

Let's say you are a moderately experienced Linux user, and you want to
install an application off the Internet but it doesn't have a nice
package that works on your system. (If it does have a package, install
it following the instructions on InstallingSoftware.)

A lot of users, even quite experienced ones, have issues with going
from the tarball to the installed program because they just do not
know the fairly easy steps required to get the job done. But it's only
easy if you already know how to do it! So, here's a quick guide about
how to install stuff from developer sites.

Step 1: Prep your system for building packages

By default, Ubuntu does not come with the tools required. You need to
install the package build-essential for making the package and
checkinstall for putting it into your package manager. These can be
found on the install CD or in the repositories, searching in Synaptic
Package Manager or the command-line apt-get:

sudo apt-get install build-essential checkinstall

And since you may want to get code from some projects with no released
version, you should install the packages cvs and subversion.

sudo apt-get install cvs subversion

*

IconsPage/IconNote.png You may find other packages required to
install these packages. Read any available documentation.

You should then build a common directory for yourself where you'll be
building these packages. We recommend creating /usr/local/src, but
really you can put it anywhere you want. Make sure this directory is
writable by your primary user account, by running

sudo chown yourusername /usr/local/src

and, just to be safe

sudo chmod u+rwx /usr/local/src

After you've done this, you're set up to start getting the programs
you need.

Step 2: Getting the software you want

Most of the software you'll generally want comes from released
tarballs. These are just compressed archives with extensions
like .tar.gz or .tar.bz2 — they are just like .zip files on Windows
or .sit on MacOS X, if that analogy helps you. If the program you want
to install comes in this form, you should move it into the /usr/local/
src directory we made in Step 1 and extract it by right-clicking on
the file and selecting Extract Here, or by using the command line: If
your tarball is a .gz, extract the files with the command:

tar xzvf tarballname.tar.gz

and for bz2 the similar command:

tar xjvf tarballname.tar.bz2

In the rare case of getting a program from a cvs or subversion
repository, the developers will generally provide instructions on how
to do this on their website. If you already installed the packages
listed on Step 1, you just need to change to your /usr/local/src
directory (cd /usr/local/src) and run the commands that are listed.
The procedure will vary from program to program, so I can't help you
here, but with the given packages the instructions they provide should
work smoothly.

Step 3: Resolving Dependencies.

One nice thing about modern Linux distributions is they take care of
dependencies for the user. That is to say, if you want to install a
program, the apt program will make sure it installs all needed
libraries and other dependent programs so installing a program is
never more difficult then just specifying what you need and it does
the rest. Unfortunately with tarballs this is not the case, and you'll
have to do it manually. It's this stage that trips up even some fairly
experienced users who often give up in frustration for not being able
to figure out what they need to get.

*

You probably want to read about the possibilities and
limitations of auto-apt first, which will attempt to take care of
dependency issues automatically. The following instructions are for
fulfilling dependencies manually:

To prepare, install the package apt-file, and then run sudo apt-file
update. This will download a list of all the available packages and
all of the files those packages contain, which as you might expect can
be a very large list. It will not provide any feedback while it loads,
so just wait.

The apt-file program has some interesting functions, the two most
useful are apt-file search which searches for a particular file name,
and apt-file list which lists all the files in a given package. (Two
explanations: 1 2)

To check the dependencies of your program, change into the directory
you created in step two (cd /usr/local/src). Extracting the tarball or
downloading from cvs/subversion will have made a sub-directory under /
usr/local/src that contains the source code. This newly-created
directory will contain a file called "configure", which is a script to
make sure that the program can be compiled on your computer. To run
it, run the command ./configure This command will check to see if
you've got all the programs needed to install the program — in most
cases you will not, and it will error out with a message about needing
a program.

*

If you run ./configure without any options, you will use the
default settings for the program. Most programs have a range of
settings that you can enable or disable, if you are interested in this
check the README and INSTALL files found in the directory after
decompressing the tar file. You can check the developer documentation
and in many cases ./configure --help will list some of the key
configurations you can do. A very common options is to use ./configure
--prefix=/usr which will install your application into /usr instead
of /usr/local as my instructions do.

If this happens, the last line of output will be something like

configure: error: Library requirements (gobbletygook) not met, blah
blah blah stuff we don't care about

But right above that it will list a filename that it cannot find
(often a filename ending in ".pc", for instance). What you need to do
then is to run

apt-file search missingfilename.pc

which will tell you which Ubuntu package the missing file is in. You
can then simply install the package using

sudo apt-get install requiredpackage

Then try running ./configure again, and see if it works. If you get to
a bunch of text that finishes with config.status: creating Makefile
followed by no obvious error messages, you're ready for the next
steps.

Step 4: Build and install.

If you got this far, you've done the hardest part already. Now all you
need to do is run the command

make

which does the actual building (compiling) of the program.

*

IconsPage/IconClockYellow.png If it's a large program or if
you've got a very slow computer, go and get a cup of coffee or
something.

When its done, install the program. You probably want to use

checkinstall

which puts the program in the package manager for clean, easy removal
later. This replaces the old sudo make install command. See the
complete documentation at CheckInstall.

Then the final stage of the installation will run. It shouldn't take
long. When finished, if you used checkinstall, the program will appear
in Synaptic Package Manager. If you used sudo make install, your
application will be installed to /usr/local/bin and you should be able
to run it from there without problems.

*

IconsPage/IconNote.png If this all seems way too hard for you,
don't fret. You're using Ubuntu after all, and it has all of the
programs that you actually need to get your work done already packaged
for you. If there isn't a package out there, the odds are that you
really don't need the program and within a few months someone will
have packaged it for you. The only programs you actually need to build
and compile like this are programs that are new and perhaps not yet
stable or ready for your desktop. If you think this procedure is too
hard, well maybe you ought to reconsider why you want to do this and
just wait a few months for the next stable release. But it can be a
good learning experience for you.

If your desired package is quite important and you think it deserves
to be in Ubuntu properly, perhaps contact the Masters of the Universe
and see if they can do the hard work for you — if they package
something, anyone can install it without having to go through this
procedure. But if you can get through all this, you're well on your
way to becoming an expert Linux user — you'd be surprised how easy all
this seems after you've done it just a few times. Good luck!

*

IconsPage/IconNote.png Easy meaning "easier than tearing your
hair out and then screaming about how much Linux sucks while running
around the room". Not actually easy.

Links

*

Installing from source packages - "How to install ANYTHING in
Ubuntu!"

Comments

For a more advanced yet not so easy Howto, have a look at
CompilingSoftware.

*

The "easy" tutorial should be the default one (at
CompilingSoftware), and the "advanced" tutorial should be at a name
like CompilingSoftwareAdvanced. The target audience for a document
like this is people who have never done any of this stuff before. Make
the default document as easy to use as possible.

CategoryDocumentation

Paulo

unread,
Sep 9, 2008, 9:19:25 PM9/9/08
to Linux-Sur
kde en español la libreria es kde-i18n-es y lo cambias en sistema

Paulo

unread,
Sep 11, 2008, 5:46:36 PM9/11/08
to Linux-Sur
cual de los procesadores de intel es mejor.


Listado de procesadores intel
http://es.wikipedia.org/wiki/Categor%C3%ADa:Microprocesadores_Intel


* Intel Celeron
* Celeron D
* Centrino
* Intel Core Duo
* Intel Core 2 Duo
* Intel Core 2 Quad



-----------------------------------------------*
Pocesadores desde peor a mejor
pentium D-->Core 2 Duo --> Dual Core

Dentro de los microprocesadores de Intel debemos destacar las
tecnologías multinúcleo implementadas en los procesadores Pentium D y
Core 2 Duo, la tecnología móvil Centrino desarrollada para el mercado
de portátiles y la tecnología Hyper-Threading integrada en los
procesadores Intel Pentium 4.

En enero de 2006 se presentaron al mercado las primeras computadoras
de Apple, una portátil y otra de escritorio, con procesadores Intel
Core Duo de doble núcleo.

El procesador Intel Pentium Dual Core es parte de la familia de
microprocesadores creados por la empresa Intel, que utilizan la
tecnologia de 'Doble Nucleo', y es el que salio después de la serie de
procesadores Pentium D y antes de los Core 2 Duo.

Fue diseñado para trabajar en entornos moviles (Laptops) y en equipos
de escritorio (Desktops), permitiendo la ejecución de aplicaciones
múltiples, a un bajo costo, un bajo consumo energético y sin
sacrificar el desempeño de la computadora. Este procesador es un Core
2 Duo, pero en su lanzamiento se le puso ese nombre (Pentium Dual
Core).

"Se suelen confundir Pentium D con Pentium Dual Core, los Pentium D
lanzados en el 2005 tienen un menor consumo de energía. Ambos cuentan
con dos núcleos en un mismo microprocesador y no cuentan con la
tecnología Hyper-Threading"

---------------------------------------------*

Intel Core 2 Quad o Intel Quad Core son una serie de procesadores de
Intel con 4 núcleos, lanzados el 2 de Noviembre de 2006, asegurando
ser un 65% más rápidos que los Core 2 Duo disponibles en ese entonces.
Para poder crear este procesador se tuvo que incluir 2 núcleos Conroe
bajo un mismo empaque y comunicarlos mediante el Bus del Sistema, para
así totalizar 4 núcleos reales, a diferencia del AMD Phenom X4 que se
jacta de ser un procesador monolítico.

---------------------------------------------*

Intel acaba de lanzar una nueva gama de procesadores llamados Intel
Atom. Estos nuevos procesadores son muy pequeños , ya que están
diseñados para equipos portatiles y demas. De momento no se conoce la
potencia pero es sabido que tiene un bajo gasto energético.

---------------------------------------------*


Lo que pasa es q los quad core o Core 2 quad de intel, no son quad -
core en si, son dos Core-2-duo en un mismo chip, en cambio los phenom
se supone q si son 4 nucleos en un mismo chip, asi que si comparas
esos 2 es como si compararas un Dual-core con un Core-2-Duo.
Los verdaderos cuad-core de intel se llaman Penryn, ahy si esque se
puede empesar a comparar pq cuantan con la misma o parecida
arquitectura.

Paulo

unread,
Sep 17, 2008, 8:46:09 AM9/17/08
to Linux-Sur
DISTRO OpenGeu. Tras hablar con Santi de Algeciras me he decido a
postear el OpenGeu el sistema que el esta trasteandoa hora jj

OpenGeu 7.04, Sunshine Edition, corriendo GNOME y Enlightenment como
entorno de escritorio

OpenGeu 7.04, Moonlight Edition, corriendo GNOME y Enlightenment como
entorno de escritorio
Desarrollador: Luca De Marini (aka The Dark Master)

, y otros contribuyentes de Arte digital[1]
País de origen: Bandera de Italia Italia
Familia: GNU/Linux
Modelo de desarrollo: Software libre
Núcleo: Linux
Tipo de núcleo: Monolítico
Interfaz gráfica por defecto: GNOME+Enlightenment
Licencia: GPL
Última versión estable: 7.10 / 6 de diciembre de 2007
Estado actual: En desarrollo
Sitio web: opengeu.intilinux.com


OpenGeu, anteriormente Geubuntu, es una distribución del sistema
operativo GNU/LinuxLinux basada en la distribucion Ubuntu, y que
integra el uso de GNOME y Enlightenment en la interfaz gráfica de
usuario.

OpenGeu fue comenzada y diseñada por el italiano Luca De Marini, (aka
"TheDarkMaster").[2] Ésta distribución GNU/Linux mezcla las
características de los entornos de escritorio GNOME y Enlightenment
17.

OpenGeu es una idea de, su desarrollador, Luca De Marini y de
InTiLinux Projects.

En esta distribución se pueden encontrar los clásicos conjuntos de
aplicaciones de software de Ubuntu, mezcladas con aquellas proveidas y
creadas para Enlightenment 17.

stitoargaiz

unread,
Sep 17, 2008, 10:20:37 AM9/17/08
to linu...@googlegroups.com
Si os puedo ayudar en algo ya sabeis donde estoy....

Saludos

Paulo

unread,
Sep 18, 2008, 9:43:37 AM9/18/08
to Linux-Sur
Ubuntu Manpage Repository:
http://manpages.ubuntu.com/
todas las páginas del "man" de Ubuntu disponibles online


Ubuntu Manpage Repository

Ubuntu Manpage Repository es un directorio oficial online con todas
las páginas del man que vienen en las diferentes versiones del sistema
operativo Ubuntu, desde Dapper hasta Intrepid. Como bien comenta
Dustin en su blog (el usuario que pensó y creó el sitio) en post que
anuncia el nuevo repositorio, el wiki oficial de Ubuntu y el equipo de
documentación están haciendo un gran trabajo, pero muchos usuarios se
sienten más cómodos con la ayuda y el formato que proporciona el man
de toda la vida.

Por si algún usuario no conoce esta enorme herramienta, se trata de
una gran base de datos con documentación y ayuda sobre los comandos y
llamadas disponibles en los sistemas Unix, que puede consultarse
directamente desde el terminal ejecutando: $man comando. Por ejemplo
puede obtenerse rápidamente la ayuda oficial sobre el comando apt-get
tecleando: $man apt-get.

El repositorio ahora mismo tiene aproximadamente 300.000 páginas en
formato HTML que pueden consultarse online, en todos los idiomas en
los que están disponibles las propias páginas del man y se actualiza
diariamente. La página es sencilla, tan sólo tiene un campo donde
introducir la búsqueda y los resultados se muestran en una tabla donde
puede consultarse la versión del sistema al que pertenece la página
del manual y la categoría temática. Al hacer click sobre el nombre de
la página directamente te lleva al contenido del comando que quieres
consultar.

Paulo

unread,
Sep 24, 2008, 4:23:40 PM9/24/08
to Linux-Sur
http://www.psychocats.net/ubuntu/installingsoftware INSTALANDO RPM Y
COMPILANDO

Last resorts: .rpm and .tar.gz
The preferred way to install software in Ubuntu is to use the package
manager, which you can access through Add/Remove or Synaptic. As we've
seen with Skype, sometimes you can also find a .deb for software not
in the repositories. But what if you can't find a .deb?

.rpm
If you can't find a .deb, you can try a .rpm. These files are packaged
for other Linux distributions (usually Fedora or Mandriva), but there
is an application called alien (which you can install using Synaptic)
that allows you (most of the time) to convert .rpm files to .deb. Read
more about this process.

.tar.gz
As a last resort, you can download a .tar.gz file. The .tar.gz file
extension indicates the file is a compressed set of files and folders
(the compressed files you see in Windows usually have a .zip
extension). If you see the .tar.gz, it could be compressed files that
have a precompiled binary file, or it could be compressed files that
have the source code allowing you to compile the application from
source.

If you have trouble installing a .tar.gz file, you can ask for help on
the Ubuntu Forums.

Links
There are other guides out there that help you understand software
installation a bit better.

* Community Documentation on Installing: The wiki gives a thorough
explanation of the process of installing software and also includes
the Adept package manager available in Kubuntu.
* Video tutorials: A collection of YouTube videos showing the
installation process in real-time, often with spoken narration.
* Old Psychocats Tutorial: A very text-heavy explanation of
software installation that also includes examples with the command-
line way to access the package manager.

Paulo

unread,
Sep 24, 2008, 7:04:26 PM9/24/08
to Linux-Sur
REPARAR EL sources.list con Nano (sorceslist sources list)
Escribo esto a petición de un miembro de la comunidad que conocí
recientemente y me preguntó por qué no podía instalar programas,
además de que también me he dado cuenta que para usuarios novatos es
dificil encontrar información acerca de este mecanismo tan sencillo de
instalar paquetes con Ubuntu.

Una de las cosas que caracteriza a Linux es que el usuario común no
tiene permisos casi para nada, ni siquiera para instalar programas.
Una de las ventajas de esta característica es que si por alguna razón
alguien tiene acceso a nuestra computadora de forma remota (digamos, a
través de internet), no podrá instalarnos programas indeseables,
llamense virus, mal-ware, etc.

El único usuario que tiene permisos para instalar programas es root
(el superusuario), que es el administrador del equipo. Cuando
instalamos Ubuntu en nuestras computadoras, únicamente definimos un
password para nuestro usuario. Por cuestiones de seguridad, debemos
definir un password para root, así que una vez instalado el sistema
operativo en nuestra máquina, abrimos una terminal (en el modo
gráfico, se puede hacer desde Aplicaciones>>Herramientas del
sistema>>Terminal... notese que elegimos Terminal y no Root Terminal).
Aqui encontraremos una ventana tipo editor de textos con nuestro
prompt:

usuario@compu:~$

Este prompt es el que nos indica que podemos introducir un comando,
consta de tres partes:

usuario > el usuario actual.
compu > nombre de la computadora.
~ > despues de los dos puntos nos indica el directorio actual, ~
indica que estamos en /home/usuario/
$ > indica que el usuario es un usuario comun, cuando trabajemos como
root, el prompt se verá así:

root@compu:/home/usuario/#

# indica que estamos trabajando como root. En adelante, los comandos
que escriba aquí que comienzen con $ son ejecutados como usuario común
y # son ejecutados como root.

Volviendo a lo que nos interesa, para definir un password para root,
ejecutamos el siguiente comando:

$ passwd root

Esto nos pedirá dos veces el nuevo password del super usuario:

Enter new UNIX password:
Retype new UNIX password:

Cuando ya tenemos un password definido para root, instalar programas
es bastante sencillo, con el comando apt (Advanced Package Tool), se
llama así porque todo lo que se instala en Linux son paquetes. Este
comando sólamente lo puede ejecutar el superusuario, así que debemos
obtener permisos de root. Para esto existen dos alternativas:
convertirnos en root u obtener permisos de root temporalmente.

Para convertirnos en root, se ejecuta el comando:

$ su

Esto nos pedirá nuestro password de root y al introducirlo el prompt
cambiará.

Para obtener permisos de root de manera temporal (un comando), se
escribe sudo antes del comando a ejecutar.

su viene de SuperUser y sudo de SuperUser DO (el superusuario hace),
con esto es fácil recordar lo que se debe poner para realizar la
acción que queramos.

apt descarga los paquetes de los repositorios (para lo cual debemos
estar conectados a internet) y los instala automáticamente.

La lista de repositorios se encuentra en el archivo /etc/apt/
sources.list
Por default, algunos repositorios vienen deshabilitados, mi
recomendación personal es habilitarlos todos para tener acceso a más
paquetes algooooo
Para esto, debemos editar el archivo:

$ sudo nano /etc/apt/sources.list

nano es un editor de textos sencillo de usar. Existen muchos editores
con los cuales podemos editar texto, yo utilizo vi, y con esta
alternativa, el comando sería:

$ sudo vi /etc/apt/sources.list

vi es un poco más complicado de usar, así que para usuarios novatos,
nano trabajará bien. Sea cual sea la opción que elijamos, debemos
introducir sudo al principio, ya que este archivo sólo lo puede
modificar root. Entonces nos pedirá nuestro password de root y después
abrirá el editor de textos con este archivo.

Las líneas que incluyen # al principio se llaman comentarios, es
decir, que no se les hace caso y se usan sólo para referencia del
usuario. Las referencias que comienzan con deb son para descargar
binarios (ejecutables) y las que comienzan con deb-src son para
descargar código fuente.

La primera línea del archivo muestra:

deb cdrom:[Ubuntu ...

Si no necesitamos este repositorio, que se encuentra en el cd de
instalación de ubuntu, podemos comentarlo añadiendo un # al inicio de
la línea.

Para los demás repositorios, yo recomiendo quitarles el # para
descomentarlos y que apt pueda descargar paquetes desde ahi.

Una vez teminado de editar nuestro archivo de repositorios, en nano
tecleamos Ctrl+X para salir, nos preguntará si queremos guardar los
cambios, escribimos S y damos enter.

Ahora estamos listos para instalar programas a través de internet.

El procedimiento descrito a continuación es el que se debe seguir de
ahora en adelante para instalar nuestros programas (sólamente una
única vez debemos definir el password de root y editar el archivo de
repositorios).

Antes de instalar cualquier paquete, es recomendable actualizar las
definiciones de los paquetes disponibles, para obtener siempre las
versiones más recientes de lo que queramos instalar. Para ello, se
corre:

$ sudo apt-get update

Para tener nuestro sistema bien actualizado, apt puede bajar e
instalar automáticamente las actualizaciones disponibles, corriendo:

$ sudo apt-get upgrade

Dependiendo de qué tan desactualizado tengamos nuestro sistema, esta
acción tomará algunos minutos.

Si por ejemplo, queremos instalar un cliente de mensajería
instantánea, como aMSN, podemos correr:

$ sudo apt-get install aMSN

El comando anterior es igual para cualquier paquete que queramos
instalar, únicamente cambia el nombre del paquete (aMSN). El sistema
buscará el programa, calculará el tamaño del archivo y generalmente
nos preguntará si verdaderamente queremos instalarlo. Para responder
podemos unicamente teclear enter.
aMSN se instalará, la terminal nos mostrará nuevamente nuestro prompt,
y el cliente estará disponible en Aplicaciones>>Internet>>aMSN.

También podríamos instalar juegos o cualquier otra cosa que se nos
ocurra:

$ sudo apt-get install supertux

Instala un juego tipo Mario Bros pero con Tux (la mascota de Linux)
como personaje, para correrlo, se ejecuta el comando:

$ supertux

Si no sabemos el nombre del paquete que queremos encontrar, podemos
buscar en la lista de paquetes disponibles:

$ sudo apt-cache search loquebuscas

Esto te mostrara una lista con todos los paquetes que en su nombre o
descripción contengan loquebuscas.

Para más información sobre apt, recomiendo correr cualquiera de los
dos siguientes comandos.

$ man apt
$ man apt-get

Lo cual mostrará el manual de apt con todas sus opciones.

http://www.forospyware.com/archive/t-40231.html
De forma alternativa, se puede instalar paquetes en el modo gráfico,
con el programa Synaptic (en Kubuntu es Kynaptic), que está disponible
en Sistema>>Administración>>Gestor de Paquetes Synaptic. Este es
bastante amigable, cumple con las funciones de apt y sólo nos pedirá
nuestro password de root cuando lo abramos.

Paulo

unread,
Sep 24, 2008, 7:07:57 PM9/24/08
to Linux-Sur
Arreglar el sonido (ALSA)
http://ikillyounow.blogspot.com/2007/12/arreglar-problemas-de-sonido-en-ubuntu.html


a la hora de probar el sonido... nada. Para arreglar este problema lo
recomendable es descargar los archivos desde un repositorio por que es
más fácil de instalar que la opción con un archivo tar.gz (el cual hay
que compilar). Antes de iniciar nos debemos cerciorarnos que tenemos
esta dependencia:

libc-dev



Una manera facil de ver si se tiene este paquete es comprobando con
synaptic

1. Despues de verficar y en una terminal de línea de comandos
escribir:

$sudo vi /etc/apt/sources.list, puede colocar vi, nano, gedit o
cualquier editor de texto



2. Adicione al final del archivo las siguientes lineas:

deb http://lddubeau.com/downloads/ubuntu gutsy main
deb-src http://lddubeau.com/downloads/ubuntu gutsy main



3. Guarde, salga del archivo y escriba en la terminal de línea de
comandos:

$sudo apt-get update
$sudo apt-get install alsa-source



3.1 si desea descargar el archivo de forma manual lo puede hacer en:

http://lddubeau.com/downloads/ubuntu/pool/main/a/alsa-driver



Para mi caso descargue alsa-source_1.0.15rc3-ldd1_all.deb, o pueden
buscarlo en donde deseen, después de haberlo descargado escriba en la
terminal de línea de comandos:

$apt-get install debconf-support
$dpkg -i alsa-source_1.0.15rc3-15rc3-ldd1_all.deb



Si con dpkg faltan dependencias por instalar, lo pueden hacer mediante
el comando apt-get install y continuar con la instalación.

4. Una vez instalado el paquete se debe hacer lo siguiente:

$cd /usr/src
$sudo module-assistant a-i alsa-source



5. Si se tiene abierta alguna aplicación que utilice el dispositivo de
sonido ciérrela y vuelva a cargar los módulos de sonido ALSA

6. Ahora en la terminal de línea de comandos escriba lo siguiente:

$sudo vi/etc/modprobe.d/alsa-base, puede colocar vi, nano, gedit o
cualquier editor de texto



Ir al final del archivo y añadir la siguiente línea

options snd-hda-intel model=toshiba




Graba el archivo y salga.

Ahora debe reiniciar el sistema y listo

Paulo

unread,
Oct 5, 2008, 9:20:08 AM10/5/08
to Linux-Sur
Installing Google Android SDK 1.0 On Ubuntu 8.04 Desktop
http://www.howtoforge.com/installing-google-android-sdk1.0-on-ubuntu8.04-desktop

Version 1.0
Author: Falko Timme <ft [a
1 Preliminary Note

I'm using the user name falko with the home directory /home/falko in
this tutorial. Replace them with your own details where appropriate.


2 Installing Java And Eclipse

Before we can install the Android SDK, we must install Java and
Eclipse (version 3.3 or 3.4 - I'm using 3.4 codename "Ganymede" here).

First, we open a terminal (Applications > Accessories > Terminal):

Click to enlarge

To install Java, we type

sudo apt-get install sun-java6-bin

(If you are on a x86_64 system, you also must install ia32-libs:

sudo apt-get install ia32-libs

)

Click to enlarge

You will be asked to accept the Java license during the installation:

Click to enlarge

Click to enlarge

The Android SDK 1.0 requires Eclipse 3.3 or 3.4. Ufortunately, the
Ubuntu 8.04 repositories only have a package for Eclipse 3.2 -
therefore we must install Eclipse manually.

Open a browser and go to http://www.eclipse.org/downloads/. Select one
of the Java, Java EE, or RCP versions of Eclipse. I've chosen the
Eclipse IDE for Java EE Developers for Linux 32bit (select Linux 64bit
if you're on an x86_64 system):

Click to enlarge

Download the file to your hard drive, e.g. the desktop (/home/falko/
Desktop):

Click to enlarge

To install Eclipse, we must open a terminal again. Go to the directory
where you've saved the Eclipse file and uncompress it:

cd /home/falko/Desktop/
tar xvfz eclipse-jee-ganymede-linux-gtk.tar.gz

This creates a directory called eclipse.

Afterwards, you can delete the Eclipse archive file:

rm -f eclipse-jee-ganymede-linux-gtk.tar.gz

My eclipse directory is now located on my desktop (/home/falko/
Desktop) - I don't want it there, so I move it to my home directory
(you can leave it where it is or move it to whatever directory you
prefer):

mv eclipse ~

Inside the eclipse directory, there is an executable called eclipse -
that's the file we must run when we want to start Eclipse. Obviously,
we don't want to do this from the command line, so we create a
launcher for it.

Right-click on Applications and select Edit Menus:

Click to enlarge

Select Programming (or whatever category you want the launcher to be
located in) and click on New Item:

Click to enlarge

Type in the name of the application (e.g. Eclipse) and the full path
to the eclipse executable (/home/falko/eclipse/eclipse in my case) and
click on OK:

Click to enlarge

Then leave the menu editor:

Click to enlarge

Now we can use the launcher to start Eclipse (Applications >
Programming > Eclipse):

Click to enlarge

Eclipse is starting up...

Click to enlarge

... and asking for a workspace (you can accept the default one):

Click to enlarge

This is how Eclipse looks:

Click to enlarge

Paulo

unread,
Oct 5, 2008, 12:15:02 PM10/5/08
to Linux-Sur
INSTALAR EL REPOSITORIO DE JUEGOS EN UBUNTU DE PLAYDEB
Como se venia prometiendo, se ha lanzado la beta del proyeto Playdeb
(anteriormente Playbuntu).

Playdeb es un repositorio de juegos para Ubuntu, destinado a
proporcionar títulos ya disponibles en getdeb.net de una manera fácil
de instalar y con la posibilidad de actualización.

Instalar el repositorio de Playdeb en Ubuntu:

Si lo hacemos desde consola seguimos estos pasos:

1. sudo gedit /etc/apt/sources.list
2. Al final del archivo agregamos esta línea:
deb mirror://www.getdeb.net/playdeb-mirror/hardy/// hardy/
3. Guardamos y cerramos el archivo
4. sudo apt-get update

Si lo queremos hacer de forma gráfica hacemos lo siguiente:

1. Sistema > Administración > Origenes del software
2. Software de terceros > Añadir
3. Agregamos la linea: deb mirror://www.getdeb.net/playdeb-mirror/hardy///
hardy/
4. Cerrar y luego apretamos el botón recargar.

Ya tenemos listo el repositorio. En este link podemos ver la lista
completa de los juegos que tenemos disponibles para instalar.

Paulo

unread,
Oct 11, 2008, 5:46:17 PM10/11/08
to Linux-Sur
CAMBIAR PERMISOS DE CARPETAS O ARCHIVOS desde la terminal
1. Nos vamos al directorio donde este la carpeta o archivo de la cual
queremos cambiar los permisos
cd /carpeta
2. chmod 777 nombre de la carpeta (Esto cambia a que cualquiera pueda
cambiar la carpeta) hay otras combinaciones de chmod 764 por ej

---------
Para borrar un directorio desde la terminal usamos rmdir,
chown cambia el propietario de una carpeta o archivo (change owner)
Sintaxis: chown <usuario> <carpeta>

juanchasp

unread,
Oct 13, 2008, 6:20:18 PM10/13/08
to Linux-Sur
Enlaces simbolicos

Es fantastico, un simple "ln -s (origen) (destino)" y tendras un
acceso directo a un fichero o dispositivo donde tu qeurias con el
nombre que tu quieras.

Ejemplo:
Tienes un juego que detecta js0 y lo usa como mando pero el mando lo
has enchufado varias veces y ahora es js5 , pues con un "ln -s /dev/
input/js5 /dev/input/js0"
tendras el juego con tu jostick

Paulo

unread,
Oct 19, 2008, 3:59:13 PM10/19/08
to Linux-Sur
el kernel de linux
http://www.kernel.org/
PARA VER LA VERSION DE KERNEL QUE TIENES INSTALADA: uname -r

--------------------
PARA VER LA ULTIMA VERSION DEL KERNEL: finger @finger.kernel.org

Este comando sirve tanto para Mac OS X, para windows como para Linux,
abrimos la consola (terminal en Mac o inicio ejecutar cmd.exe en
windows) y tecleamos lo siguiente:


http://www.selenic.com/ketchup/ aplicacion ketchup para actualizar el
kernel

update utility for linux-kernel sources
This utility can update (or install) kernel sources automatically. It
can search for the newest kernel in numerous trees (vanilla, rc, tiny,
mm, mjb, etc.).
It can also automatically download the needed patches (and apply them)
to create the newest repository from an old one.
------------------------------------------------------------------
CAMBIOS EN LAS DISTINTAS VERSIONES DE KERNEL:
http://kernelnewbies.org/LinuxChanges
------------------------------------------------------------------

Optimizar el kernel
http://www.guia-ubuntu.org/index.php?title=Optimizar_el_kernel
Ubuntu, por defecto, nos instala un kernel Linux compilado para i386
(en la versión de Ubuntu para Intel y compatibles). Lo ideal sería que
el instalador detectase nuestra arquitectura e instalase una versión
compilada para nuestro microprocesador, pero lamentablemente no es
así. Sin embargo la solución es muy sencilla, simplemente debemos
instalar el paquete correspondiente a nuestro procesador.
[editar]
Modo gráfico

* Vamos al menú Sistema de GNOME, abrimos Administración e
iniciamos el Gestor de Paquetes Synaptic.

* Una vez dentro de Synaptic pulsamos en Recargar para obtener los
últimos paquetes.

* Tras actualizar, escogemos la sección Sistema Base.

Imagen:Nota clasica.png Para evitar problemas con núcleos no
oficiales, no hay que marcar Sistema base(universe)

* Bajamos hasta la zona dónde tenemos paquetes que se llaman:
linux-image-X.X.X-nombre_de_nuestro_procesador y marcamos la versión
más actual. Por ejemplo: linux-image-2.6.10-5-k7.

* Si tenemos algún hardware que requiera módulos del núcleo
especiales (véase tarjetas Nvidia), debemos marcar también los linux-
restricted-modules correspondientes al núcleo seleccionado.

* Aplicamos los cambios y la proxima vez que reiniciemos se
cargará el núcleo seleccionado.
sigue..........

-------------------------------------------------------------------------:)
intro y definición
http://www.guia-ubuntu.org/index.php?title=Kernel
El kernel o núcleo es la parte más importante de un sistema operativo.
Es el software encargado de gestionar el hardware (microprocesador,
memoria RAM, etc.) del ordenador y los periféricos conectados a él, de
proveer al resto de los programas acceso al hardware y de gestionar la
ejecución de todos los programas. En resumen, se encarga de comunicar
el software con el hardware, además de controlarlos.

El kernel de GNU/Linux se llama Linux. Es un clon libre de otro
sistema más antiguo con licencia privativa, denominado Unix, el cual
fue creado en los laboratorios de AT&T.

Paulo

unread,
Oct 19, 2008, 7:32:34 PM10/19/08
to Linux-Sur
MEJORAR y actualizar UBUNTU
lsb_release -a para saber que versión de Ubuntu tienes

ultimate edition http://ultimateedition.info/
Easy Ubuntu (ahora integrado en Ubuntu)
MEDIBUNTU https://help.ubuntu.com/community/Medibuntu
UbuntuStudio

Ultamatix (hijo del extinto proyectoAutomatix)
http://es.wikipedia.org/wiki/Ultamatix

Ultamatix en Ubuntu
Última versión: 1.8.0-4
S.O.: Ubuntu
Licencia: open source
Sitio Web: http://ultamatix.com/

Ultamatix es una herramienta que automatiza la adición de
aplicaciones, codecs, fuentes y bibliotecas no disponible directamente
por los repositorios de software de Debian ou Ubuntu.
Contenido
[ocultar]

* 1 Historia
* 2 Software disponible
* 3 Referencias
* 4 Véase también

Historia [editar]

Dado que el desarrollo de Automatix ha terminado, Ultamatix se
desarrolló, sobre la base de Automatix, para proporcionar los usuarios
una manera fácil de instalar software en sus sistemas de Ubuntu.

Ultamatix actualmente permite la fácil instalación de 101 diferentes
programas, incluyendo programas como el plugin de Flash, Adobe Reader,
codecs multimedia (incluyendo MP3, Windows Media Audio y video-DVD),
fuentes, software de programación (compiladores) y juegos.[1
-********************************************************************-
CÓMO ACTUALIZAR UBUNTU con el ALTERNATE CD
http://www.google.es/search?q=wikipedia+ubuntu+alternate+cd&ie=utf-8&oe=utf-8&aq=t&rls=com.ubuntu:en-GB:unofficial&client=firefox-a

Alternate installation

In addition to the Live CD, Ubuntu can be installed through alternate
methods. One such method is the alternate install CD.

The alternate install CD is an installation disk designed for
specialist Ubuntu configurations by providing a text-based (rather
than graphical) installation. It allows for the creation of pre-
configured OEM systems, the upgrading of older installations without
network access, and installation on systems with less than 320 MB of
RAM. The CD also allows LVM and/or RAID partitioning set up, as well
as the encryption of partitions using dm-crypt. The alternate install
CD is not a Live CD.
Default login screen for Ubuntu 8.04 (Hardy Heron)'s server edition
Default login screen for Ubuntu 8.04 (Hardy Heron)'s server edition

Ubuntu can also be installed over a network via the network install
CD. The network install CD installs Ubuntu directly from an Ubuntu
mirror. Installation from a mirror ensures that installed packages are
up-to-date. The network install CD contains only the kernel to start
the text-based installation.[40]

The final alternate installation method is used to install Ubuntu
Server. The server install CD contains all packages needed for
installation without a network connection. The server installation
does not install a graphical user interface for the OS.

Paulo

unread,
Oct 19, 2008, 8:04:39 PM10/19/08
to Linux-Sur
Upgrading from 7.10 to 8.04 using the alternate CD/DVD

Use this method if the system being upgraded is not connected to the
Internet.

1.

Download and burn the alternate installation CD.
2.

Insert it into your CD-ROM drive.
3.

A dialog will be displayed offering you the opportunity to
upgrade using that CD.
4.

Follow the on-screen instructions.

If the upgrade dialog is not displayed for any reason, you may also
run the following command using Alt+F2:

gksu "sh /cdrom/cdromupgrade"

Or in Kubuntu run the following command using Alt+F2:

kdesu "sh /cdrom/cdromupgrade"

Paulo

unread,
Oct 20, 2008, 5:25:52 AM10/20/08
to Linux-Sur
WINE-DOORS
http://www.wine-doors.org
http://es.wikipedia.org/wiki/Wine_Doors
Wine-Doors es una aplicación designada para instalar programas
(software) de Microsoft Windows (c) en sistemas operativos Linux,
Solaris o en otros sistemas Unix mucho más fácil, de manera gráfica.
Wine Doors es esencialmente una herramienta de Gestión de Paquetes,
para programas de Windows (c) en sistemas Linux.

Wine-Doors trabaja conjuntamente con software, librerías y
herramientas creadas sobre Wine y con funciones de Cedega, cvscedega y
CrossOver Office

La programación de Wine-Doors ha requerido de PyGtk, Glade y Cairo
como biblioteca de funciones gráficas, siguiendo la guía de estilos
Tango para el uso de iconos y material gráfico.

PROGRAMAS QUE INCLUYE [editar]

Aplicaciones base de Windows:

* Arial
* Arial Bold
* Autohotkeys
* Comic Sans
* Courier
* Mozilla ActiveX Control
* Times New Roman Font
* Visual C++ runtime libraries
* Webdings Font
* Wine Gecko

Juegos:

* Call of Duty
* Call of Duty 2
* DirectX 9
* Half Life 2
* Prey
* Rogue Spear
* Soldat
* Steam
* Warcraft 3
* World of Warcraft

Aplicaciones:

* 7zip
* CDex
* Dreamweaver
* DVDDecrypter
* Eudora
* FireFox
* Flash
* Internet Explorer
* Opera
* QuickTime
* Total Commander
* Winamp
* Windows Media Player

Librerías:

* Andale FontCommon Controls
* DCOM
* Georgia Font
* Impact Font
* Microsoft Data Access Components (Jet)
* Microsoft Foundation Classes
* Windows Installer
* MSXML
* Windows Scripting Host
* Tahoma Font
* Trebuchet Font
* Visual Basic Common Control Libraries
* Visual Basic Runtime Libraries
* Verdana Font

Dependencias de Software [editar]

* Wine
* cabextract, tar, gzip, bzip, unzip, orange
* python-gnome2-desktop >= 2.16
* python >= 2.4
* python2.4-cairo >= 1.2.0
* libcairo2 >= 1.2.4
* python-libxml2
* python-glade2

Paulo

unread,
Oct 22, 2008, 4:51:17 PM10/22/08
to Linux-Sur
1. ENTORNOS DE ESCRITORIO,
2. GESTORES DE VENTANAS
3. GESTORES DE VENTANAS DE COMPOSICION (Compiz)
4. DECORADORES DE VENTANAS (EMERALD, HELIODOR Y AQUAMARINE)
5. GESTORES DE TEMAS

Trataré de ser breve porque este tema es extenso

-
*******************************************************************************************************************-
1. ENTORNOS DE ESCRITORIO EN LINUX
http://bibliaubuntu.wikispaces.com/%C2%BFQu%C3%A9+es+un+escritorio%3F+Entornos+de+escritorio+para+Linux
En Linux, casi todo el trabajo de gestionar un entorno gráfico de alta
resolución lo efectúa un paquete de gráficos llamado sistema X Window,
más conocido como "X11" o simplemente "las X" para los amigos. El
sistema X Window es uno de los aspectos más atractivos de Linux, y
casi de cualquier sistema operativo que muestre gráficos. X es un
sistema de ventanas gráfico preparado desde el principio para su uso
en redes, y suministra un completo conjunto de capacidades para la
creación y el trabajo con aplicaciones. Sus capacidades son muy
similares a las de los entornos gráficos que aparecen en sistemas
Microsoft Windows o Mac OS X

El sistema X Window lo desarrolló originalmente el Instituto
Tecnológico de Massachusetts (el famoso M.I.T.). Estando inicialmente
bajo la supervisión del Open Group (http://www.opengroup.org),
actualmente lo administra la fundación X.org (http://www.x.org). La
antigua implementación de X Window para Linux, conocida como XFree86,
ya no se utiliza. La entidad que administra toda la implementación
actual de X Window para Linux es X.org.
Los gestores de ventanas más conocidos son AfterStep, BlackBox,
FluxBox, FVWM, ICEwm, kwm, Metacity (el que usa Ubuntu), twm, vtwm y
Window Maker
...Los escritorios más comunes para Linux son GNOME (GNU Network
Object Model Environment: Entorno del Modelo Orientado a Objetos de
GNU www.gnome.org), KDE (K Development Environment: Entorno de
Desarrollo K www.kde.org), ROX (rox.sourceforge.net) y XFCE
(www.xfce.org)
...La inspiración inicial para crear KDE provino de CDE (Common
Desktop Environment: Entorno de Escritorio Común), diseñado en
cooperación por los suministradores de sistemas Unix tales como IBM y
Sun Microsystems, y en aquellos tiempos sólo funcionaba en los
ordenadores que ellos mismos vendían.
lo que implicaba que cualquier fabricante que quisiera entregar su
producto con CDE debía usar una licencia de Motif. Éste hecho era
inaceptable en el entorno de código abierto y libre de Linux, así que
escribieron KDE (nótese el cambio de C por K) para disponer de una
alternativa a CDE, libre y de código abierto



http://es.wikipedia.org/wiki/Entorno_de_escritorio

Un entorno de escritorio (en inglés, Desktop Environment) es un
conjunto de software para ofrecer al usuario de una computadora una
interacción amigable y cómoda.

El software es una solución completa de interfaz gráfica de usuario o
GUI, ofrece iconos, barras de herramientas, programas e integración
entre aplicaciones con habilidades como, arrastrar y soltar
(drag&drop).

En general cada entorno de escritorio se distingue por su aspecto y
comportamiento particulares, aunque algunos tienden a imitar
características de escritorios ya existentes.


El primer entorno moderno de escritorio que se comercializó fue
desarrollado por Xerox en los años 1980. Actualmente el entorno más
conocido es el ofrecido por la familia Windows aunque existen otros
como los de Macintosh (Classic y Cocoa) y de código abierto (o
software libre) como GNOME, KDE, CDE o Xfce.



_********************************************************************************************************************_
KDE
http://es.wikipedia.org/wiki/Kde
Desarrollador: Proyecto KDE
Última versión: 4.1.2[1] (3 de octubre de 2008)
Escrito en: C++ y Qt
S.O.: Multiplataforma
Género: Entorno de escritorio
Licencia: GPL, LGPL, BSD y otras
En español: Sí
Sitio Web: www.kde.org
El proyecto fue iniciado en octubre de 1996 por el programador alemán
Matthias Ettrich,[4] quien buscaba crear una interfaz gráfica
unificada para sistemas Unix. En sus inicios imitó a CDE (Common
Desktop Environment), un entorno de escritorio utilizado por varios
Unix.


K Desktop Environment o Entorno de Escritorio K, es un entorno de
escritorio e infraestructura de desarrollo para sistemas Unix/Linux.
Su mascota es un dragón Konqi, mascota de KDE antes era un mago
Kandalf, anterior mascota de KDE
basado en las librerias Qt, y escrito en C++
... KDE se construye principalmente con el esfuerzo de voluntarios.
Ya que varios cientos de individuos contribuyen a KDE de diversas
maneras (programando, traduciendo, produciendo arte, etc.), la
organización del proyecto resulta compleja. La mayoría de los
problemas se discuten en las diferentes listas de correo del proyecto.

Contrariamente a lo que se podría pensar de un proyecto tan extenso,
KDE no cuenta con un liderazgo centralizado; Matthias Ettrich, el
fundador del proyecto KDE, no posee mayor peso sobre las decisiones y
rumbo del proyecto KDE. Las decisiones importantes, tales como fechas
de lanzamiento o inclusión de nuevas aplicaciones, se toman por los
desarrolladores principales en una lista de correo restringida. Los
desarrolladores principales son aquellos que han contribuido a KDE por
un tiempo prolongado. Las decisiones no se toman en un proceso formal
de votación, sino a través de discusiones en las listas de correo.
Generalmente este método funciona muy bien.

En asuntos legales y financieros el Proyecto KDE es representado por
la K Desktop Environment e. V. (KDE e.V.), organización alemana sin
ánimo de lucro.
_********************************************************************************************************************_
http://es.wikipedia.org/wiki/GNOME
GNOME es un entorno de escritorio para sistemas operativos de tipo
Unix bajo tecnología X Window. Forma parte oficial del proyecto GNU.
Nació como una alternativa a KDE.
Captura de Gnome 2.24
Desarrollador: The GNOME Foundation
Escrito en: C y GTK+
S.O.: Multiplataforma
Género: Entorno de escritorio
Licencia: GPL
Idiomas: Multilingüe (más de 45)
En español: Sí
Sitio Web: www.gnome.org
objetivo: El Proyecto GNOME pone un gran énfasis en la simplicidad,
usabilidad y en hacer que las cosas funcionen.

mascota: un pie


Muchos componentes de GNOME han cambiado a Cygwin permitiendo que las
aplicaciones de GNOME funcionen en Microsoft Windows.

El proyecto GNOME (GNU Network Object Model Environment) surgió en
agosto de 1997 como proyecto liderado por los mexicanos Miguel de
Icaza y Federico Mena para crear un entorno de escritorio
completamente libre para sistemas operativos libres, en especial para
GNU/Linux. Desde el principio, el objetivo principal de GNOME ha sido
proporcionar un conjunto de aplicaciones amigables y un escritorio
fácil de utilizar. GNOME también es una palabra del idioma inglés que
significa gnomo.

Dos factores llevaron a la creación del proyecto alternativo GNOME en
1997: la elección de la biblioteca Qt, que por aquel entonces poseía
una licencia incompatible con la GPL de GNU, aunque libre: la QPL, y
en menor medida la importancia del lenguaje C++ para el desarrollo de
KDE.

Años más tarde los problemas de licencia de Qt se han resuelto y estas
críticas han cesado. Sin embargo, los dos proyectos siguen rumbos
tecnológicos distintos y se hacen una competencia amigable. La
rivalidad actual entre ambos proyectos se considera beneficiosa
generalmente y existe, de hecho, una constante cooperación e
inspiración mutua.
Desde sus inicios se ha utilizado la biblioteca de controles gráficos
GTK, originalmente desarrollada para el programa The GIMP.
Actualmente el proyecto evoluciona bajo amparo de la Fundación GNOME.

LO QUE NO ME ESPERABA Y ME HA SORPRENDIDO CRITICA DE LINUS TORVALDS A
GNOME
Este entorno de escritorio ha sido criticado duramente por Linus
Torvalds[1] (el creador del núcleo Linux), quien afirmó que sus
desarrolladores piensan que los usuarios son estúpidos y están
confundidos con la funcionalidad.
«Animo a la gente a que cambie a KDE. Esta mentalidad de GNOME de "los
usuarios son idiotas y están confundidos con la funcionalidad" es una
enfermedad. Si piensas que tus usuarios son idiotas, sólo los idiotas
lo usarán. No uso GNOME porque se está esforzando en ser simple y hace
mucho que alcanzó el punto en el que al ser simple no hace lo que yo
necesito que haga. Por favor, decid a la gente que use KDE.»
Linus Torvalds[2
_********************************************************************************************************************_
http://es.wikipedia.org/wiki/Cygwin
Cygwin

Ejecutando Cygwin en Windows XP
Desarrollador: Red Hat y otros
Última versión: 2.510.2.2 (2005)
S.O.: Windows
Género: Emulador
Licencia: GPL
Sitio Web: www.cygwin.com


Cygwin es una colección de herramientas desarrollada por Cygnus
Solutions para proporcionar un comportamiento similar a los sistemas
Unix en Windows. Su objetivo es portar software que ejecuta en
sistemas POSIX a Windows con una recompilación a partir de sus
fuentes.
n la actualidad, el paquete está mantenido principalmente por
trabajadores de Red Hat. Se distribuye habitualmente bajo los términos
de la GPL

ygwin surge en 1995 como un proyecto de Steve Chamberlain (un
ingeniero de Cygnus). Este ingeniero descubrió que Windows 95 y NT
utilizan como formato para sus archivos objeto COFF y GNU incluía
soporte para x86 y COFF. Esto supone, al menos en teoría, que no sería
difícil adaptar el compilador GCC y crear un compilador cruzado que
creara ejecutables para Windows. Tras demostrarlo en la práctica, los
primeros prototipos comenzaron a aparecer rápidamente.

GRACIAS A ESTO SE PORTAN LOS PROGRAMAS A WINDOWS MIRAR LOS PROYECTOS
# CYGNOME = cygwin + GNOME
# KDE-cygwin = cygwin + KDE

Y LA EMPRESA QUE ESTA DETRAS ES Cygnus Solutions COMPRADA POR RED HAT
http://es.wikipedia.org/wiki/Cygnus_Solutions

Cygnus es una de las empresas más conocidas dentro del mundo del
software libre ya que fue el proveedor primario y mantenedor del
compilador GNU C/C++, el corazón de muchos de los sistemas de software
libre, incluido Linux.

El 15 de noviembre de 1999 Cygnus Software fue comprada por Red Hat,
adquiriendo un significativo capital intelectual y experiencia humana,
así como influencia en el desarrollo de software y herramientas en el
mercado de Linux.


Muchos componentes de GNOME han cambiado a Cygwin permitiendo que las
aplicaciones de GNOME funcionen en Microsoft Windows.
_********************************************************************************************************************_
_********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_
_********************************************************************************************************************_
Gestor de ventanas
http://es.wikipedia.org/wiki/Gestor_de_ventanas

Un gestor de ventanas o en inglés window manager, es un programa que
controla la ubicación y apariencia de las aplicaciones bajo el sistema
X Window.

Los ordenadores modernos suelen ofrecer una interfaz gráfica de
usuario que facilita la interacción con el sistema operativo.

Las plataformas Windows y Macintosh ofrecen métodos de visualización y
control de las ventanas e interacción con las aplicaciones,
estandarizados por sus vendedores. En cambio el sistema gráfico X
Window, popular en el ámbito de sistemas Unix y similares, como GNU/
Linux, permite al usuario escoger entre varios gestores según sus
gustos o necesidades. Los gestores de ventanas difieren entre sí de
muchas maneras, incluyendo apariencia, consumo de memoria, opciones de
personalización, escritorios múltiples o virtuales y similitud con
ciertos entornos de escritorio ya existentes, por ejemplo.

Gestores de ventanas populares [editar]

* AfterStep, basado en FVWM y de apariencia similar a NeXTSTEP.
Página Oficial de AfterStep
* AmiWM (Amiga Window Manager). Página Web de AmiWM
* Blackbox. Sitio Oficial de Blackbox
* CTWM. Sitio Web de CTWM
* Enlightenment (también llamado 'E'), basado originalmente en
fvwm2. Sitio Oficial de Enlightement
* Fluxbox, derivado de la versión 0.61.1 de Blackbox. Sitio Web de
Fluxbox
* FVWM. Página Oficial de FVWM
* FVWM95, versión modificada de fvwm2.x para que tome el aspecto
de Windows 95.
* IceWM. Sitio Oficial de IceWM
* Ion WM
* Kwin, gestor de ventanas de KDE.
* Metacity, el gestor de ventanas ligero de algunas versiones de
GNOME 2.
* Metisse, gestor de ventanas en 3D basado en otro gestor de
ventanas, FVWM),
* MWM (Motif Window Manager).
* OLWM/OLVWM (OpenLook Window Manager / OpenLook Virtual Window
Manager). Página Oficial de Olvwm
* quartz-wm, gestor de ventanas de Apple, de aspecto similar a
Aqua, para el sistema X Window (X11) en Mac OS X.
* Sawfish, originalmente conocido como Sawmill. Sitio Oficial de
Sawfish
* SCWM. Sitio Oficial de SCWM
* TWM/ VTWM (Tab Window Manager, también llamado Tom's Window
Manager / Virtual TWM).
* WindowMaker, emula la interfáz de NeXT, como AfterStep. Sitio
Oficial de WindowMaker
* wm2/wmx. Página de wm2 y de wmx

Otros gestores de ventanas [editar]

* 3Dwm, con aspecto tridimensional.
* 4Dwm, MWM mejorado de SGI.
* 5dwm
* 9wm
* aewm, basado en 9wm.
* aewm++, también basado en aewm pero con características más
modernas.
* Alloywm, otro gestor de ventanas basado en aewm.
* Amaterus
* awm (Ardent Window Manager)
* B4step, un gestor de ventanas para Linux y Solaris.
* BadWM, un gestor de ventanas minimalista con un buen control por
teclado.
* Clementine, un pequeño y rápido gestor de ventanas basado en
aewm pero reescrito en C++.
* dxwm
* Eclipse (gestor de ventanas), escrito totalmente en Lisp.
* Efsane II
* EPIwm
* Evilwm, un gestor de ventanas minimalista derivado de aewm, con
algunas adiciones en el área del control por teclado.
* flwm (Fast Light Window Manager), basado en wm2.
* Framer, un simple gestor de ventanas para el entorno de
escritorio ROX.
* Golem (gestor de ventanas), un gestor de ventanas pequeño que
soporta temas, plugins y visualización multi-pantalla.
* GWM (Generic Window Manager), un viejo gestor de ventanas
extensible.
* GwML
* Hackedbox, una versión hackeada de blackbox, con barra de
herramientas.
* HaZe, basado en mlvm.
* Heliwm
* hpwm (HP's Window Manager), con aspecto 3D es el precursor de
mwm.
* Interface WM, escrito en objective-c y optimizado para
aplicaciones GNUstep.
* Ion, gestor de ventanas tabulado pensado para usuarios del
teclado.
* JWM (Joe's Window Manager), un simple gestor de ventanas basado
en Xlib.
* Kahakai basado en Waimea con soporte de scripts para varios
idiomas.
* larswm, otro hack de 9wm.
* lwm (Lightweight Window Manager), sin iconos y ni barra de
botones.
* m swm (Sigma Window Manager)
* Maewm, otro hack de aewm.
* Matchbox, un gestor de ventanas pequeño, sólo requiere Xlib,
diseñado para ordenadores con pantallas pequeñas, incluyendo PDAs y
teléfonos.
* Mavosxwm, un gestor de ventanas minimalista.
* MIWM (Microscopic Window Manager), un gestor de ventanas
minimalista escrito en C++ y con soporte para escritorios virtuales.
* mlvwm (Macintosh Like Virtual Window Manager), un gestor de
ventanas virtual con apariencia similar al Mac OS clásico.
* Mosquito (gestor de ventanas), otro pequeño gestor de ventanas.
* mvwm, un gestor de ventanas virtual estilo vtwm.
* mwm 2.0, esta versión de mwm incluye soporte para múltiples
'workspaces'.
* NCDwm, el gestor de ventanas local para terminales NCD con
aspecto similar al mwm.
* NovaWM, un gestor de ventanas muy nuevo.
* Openbox, basado en Blackbox, con varias ventajas incluyendo
fuentes 'anti-alising'.
* Oroborus, un simple gestor de ventanas con soporte GNOME, temas
y control total por teclado.
* OSWM, el gestor de ventanas versión OPENSTEP de Sun (OPENSTEP
está basado en NeXT y Sun).
* PAWM (Puto Amo Window Manager), diseñado para ser simple,
pequeño y funcional.
* Pekwm, otro basado en aewm++ con 'ventanas tabuladas' (grupo de
ventanas juntas en un sólo marco), menus jerarquizados, y Xinerama.
* Perlwm, escrito en Perl.
* Phluid, otro basado en aewm.
* piewm, versión de tvtwm que ofrece 'Menús Pastel' (pie menus).
* PLWM (Pointless Window Manager), gestor de ventanas altamente
modularizado escrito en Python.
* pmwm IXI's Panorama version of MWM offers olvwm-like features.
* pswm. Basado en PostScript de Sun pswm es parte de OpenWindows.
* Puppet, escrito en Java.
* PWM, un gestor de ventanas ligero.
* PyWM (Python Window Manager), gestor de ventanas pequeño y
programable basado en FLWM.
* QLWM, un gestor de ventanas pequeño y eficiente basado en Qt
2.x.
* qvwm, de apariencia similar a Windows 95.
* Ratpoison, un gestor de ventanas simple sin gráficos fantásticos
ni ventanas decorativas.
* rtl, gestor de ventanas de Siemen.
* Stumpwm, escrito en Lisp.
* sswm (Solbourne's swm).
* Swm (Small Window Manager), diseñado para entornos con poca
memoria y pantalla pequeña tales como ordenadores portátiles y PDAs.
* tekwm (Tektronix's Window Manager).
* Treewm
* TrsWM, basado en Ion permite de manera fácil manejar las
ventanas usando sólo el teclado.
* tvtwm (Tom's Virtual Tab Window Manager), basado en Tab Window
Manager.
* Ultimate Window Manager (uwm), un gestor basado en pie menus
(menus circulares)
* uwm (Universal Window Manager), el gestor de ventanas simple.
* vuewm, gestor de ventanas de HP basado en MWM HP's que ofrece
'workspaces' configurables.
* w9wm, gestor de ventanas w9wm con pantallas virtuales.
* Waimea, un gestor de ventanas rápido y altamente personalizable
que usa la biblioteca de gráficos Cairo.
* Webwm, Un gestor de ventanas para páginas web.
* WindowLab, gestor de ventanas pequeño y simple basado en aewm,
con algunas adiciones nuevas.
* wm, un gestor de ventanas muy primitivo, originalmente diseñado
como ayuda para la depuración del servidor X11. Desfasado con X11R2.
* wmG, A small GTK-based window manager that is GNOME-compliant,
partially Mwm compliant, and fully ICCCM compliant.
* WMI, combina las mejores características de larsWM, Ion, evilwm,
y ratpoison.
* WWM (Weird Window Manager), bastante básico no ha sido
actualizado durante mucho tiempo.
* XDSwm
* XIGE (Xilicius Graphical Environment), un gestor de ventanas
nuevo y rápido optimizado para programadores.
* XWEM, escrito en Emacs Lisp.
* xwm, posiblemente el primer gestor de ventanas (fechado en
1985), antes incluso que el propio X11 (el Sistema X Window).
* YWM, un gestor de ventanas intuitivo y rápido.
* ZWM, basado en SDL.
-
*********************************************************************************************************************-
http://es.wikipedia.org/wiki/Enlightenment
Enlightenment, también conocido simplemente como E, es un gestor de
ventanas ligero para UNIX y GNU/Linux. Uno de sus objetivos es llegar
a ser un entorno de escritorio completo. Es muy configurable y muy
atractivo visualmente. Durante un tiempo fue el gestor de ventanas de
GNOME.
_***********************************************************************************************************************_
OFFIX Herramientas que se comunican utilizando el 'arrastrar y
soltar' (manejador de ficheros, editor, papelera, impresión, ...).
URL: http://gutenberg.lcmi.ufsc.br/OffiX/
_***********************************************************************************************************************_


http://es.wikipedia.org/wiki/Fluxbox
Fluxbox es un gestor de ventanas para el Sistema X Window basado en
Blackbox 0.61.1. Su objetivo es ser ligero y altamente personalizable,
con sólo un soporte mínimo para iconos, gráficos, y sólo capacidades
básicas de estilo para la interfaz. Se utilizan atajos de teclado,
tabs, y menús simples como interfaces, los cuales pueden ser editados.
Algunos usuarios prefieren Fluxbox sobre otros gestores de ventanas
debido a su velocidad y simplicidad.

La apariencia visual de las decoraciones de las ventanas en Fluxbox es
personalizable mediante la edición de archivos de textos. Los temas de
Fluxbox son compatibles con los de Blackbox los cuales se pueden
editar. Se pueden especificar colores, gradientes, bordes, y otros
atributos básicos de apariencia; versiones recientes de Fluxbox
soportan esquinas redondeadas y elementos gráficos.

Se puede utilizar iDesk, fbdesk ó ROX Desktop, en conjunto con
Fluxbox, y para mejoras adicionales gadgetry.

Fluxbox es el Gestor de ventanas por defecto utilizado en Damn Small
Linux debido a su pequeño consumo en memoria y un rápido tiempo de
carga, Fluxbox es popular en muchos LiveCDs como Knoppix STD y Gparted
_***********************************************************************************************************************_
http://es.wikipedia.org/wiki/CDE
CDE (Common Desktop Environment) es un entorno de escritorio gráfico
para Unix, basado en la biblioteca Motif. CDE fue desarrollado en
conjunto por Hewlett-Packard, IBM, Novell y Sun Microsystems.

Hasta aproximadamente el año 2000, CDE era considerado el escritorio
estándar para los sistemas Unix, pero al mismo tiempo, escritorios de
software libre como KDE y GNOME fueron ganando madurez y
convirtiéndose en partes esenciales de la plataforma GNU/Linux. Hacia
el 2001, Hewlett-Packard y Sun Microsystems anunciaron que
reemplazarían CDE por GNOME para sus sistemas Unix.

Aún así, las versiones de Sun Solaris 10 (al menos hasta la 3/05) aún
lo incluyen y representa una alternativa estable para el usuario que
mantiene un uso específico de su estación.

_***********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_
COMPIZ (de Novell), Compiz-QuinnStorm, BERYL, y finalmente COMPIZ
FUSION
http://es.wikipedia.org/wiki/Compiz

Compiz
Desarrollador: David Reveman, Matthias Hopf, Dave Arlie, Adam
Jackson, Jon Smirl
Última versión: 0.6.2 (18 de octubre, 2007)
Última versión en pruebas: 0.7.4 (3 de abril, 2008)
S.O.: GNU/Linux
Género: Gestor de composición de ventanas
Licencia: Licencia MIT
En español: Sí
Sitio Web: compiz.org

Compiz es uno de los primeros Gestores de ventana de composición para
el sistema de ventanas X Window que es capaz de aprovechar la
aceleración OpenGL. Fue presentado por Novell en enero de 2006 junto
con Xgl. La integración le permite realizar efectos de composición en
el manejo de ventanas, como un efecto de minimización y una vista en
forma de cubo del espacio de trabajo. Compiz forma parte del estándar
ICCCM y puede ser un sustituto de los gestores por defecto de GNOME
(Metacity) y KDE (Kwin).
También presenta algunas de las características que tienen otros
competidores, como Exposé en el Mac OS X de Apple. Está construido
sobre la extensión de composición a X y la extensión
GLX_EXT_texture_from_pixmap de OpenGL.

Inicialmente Compiz sólo funcionaba en los tipos de hardware bien
soportados por Xgl. Se sabe que la mayoría de las tarjetas gráficas
NVIDIA y ATI trabajan en Compiz sobre Xgl, sin embargo, aún existen
errores tanto en Xgl como en Compiz, pues ambos sistemas son casi
nuevos, y aún están en pleno desarrollo. Desde el día 22 de mayo de
2006 Compiz trabaja con modificaciones del estándar del servidor
X.Org, con AIGLX habilitado. Con AIGLX, las tarjetas Intel también
pueden ser utilizadas, incluyendo tarjetas móviles.
Véase también [editar]

* X Window System
* OpenGL
* Xgl
* VirtualGL
* AIGLX

_***********************************************************************************************************************_
AIGLX
http://es.wikipedia.org/wiki/AIGLX
AIGLX con Compiz en Fedora Core 6

AIGLX (Accelerated Indirect GLX), del inglés, GLX Indirecto Acelerado,
es un proyecto libre iniciado por la fundación X.Org y la comunidad de
Fedora Linux para permitir aceleración indirecta GLX, capacidad de
render en X.Org y drivers DRI. Les brinda un renderizado hecho
completamente por hardware a los clientes remotos de X, sobre el
protocolo GLX. El AIGLX ofrece un buen rendimiento en el uso de
gestores de composición de ventanas OpenGL, tales como Beryl o Compiz.

_***********************************************************************************************************************_
http://es.wikipedia.org/wiki/GLX
GLX (cuyo acrónimo atiende a "Extensión OpenGL para el X Window
System") provee la funcionalidad para conectar OpenGL y X Window
System, es decir: permite a los programas que desean utilizar OpenGL
hacerlo dentro de una ventana proporcionada por X Window System.

GLX consta de tres partes:

* Una API que proporciona las funciones de OpenGL a una aplicación
de X Window System.
_***********************************************************************************************************************_
http://es.wikipedia.org/wiki/OpenGL
OpenGL (Open Graphics Library) es una especificación estándar que
define una API multilenguaje y multiplataforma para escribir
aplicaciones que produzcan gráficos 2D y 3D.
Fue desarrollada originalmente por Silicon Graphics Inc. (SGI) en
1992[1] y se usa ampliamente en CAD, realidad virtual, representación
científica, visualización de información y simulación de vuelo.
También se usa en desarrollo de videojuegos, donde compite con
Direct3D en plataformas Microsoft Windows.


OTRA API PARA 3D ES # Mesa 3D - Implementación de código abierto de
OpenG


Miembros del Grupo Khronos [editar]



En 2008, algunos de los miembros del Grupo Khronos son:

* AMD
* Apple
* Blizzard
* Intel Graphics Controllers
* nVIDIA

_***********************************************************************************************************************_
_***********************************************************************************************************************_
_***********************************************************************************************************************_

DECORADORES DE VENTANA (Emerald, Heliodor y Aquamarine)

Como Compiz pero a diferencia de los tradicionales decoradores de
ventanas, Beryl delega el dibujo de los bordes de las ventanas a un
proceso separado, llamado decorador de ventanas (Windows Decorator).
Actualmente existen 3 de ellos, pero solo Emerald está actualmente
considerado estable.

* Emerald, es el decorador de ventanas por defecto y una
bifurcación de cgwd, tiene su propio formato de temas y soporta
efectos como alpha transparency.
* Heliodor, es una bifurcación del gtk-window-decorator de Compiz,
soporta temas de Metacity.
* Aquamarine soporta temas de KWin.

_***********************************************************************************************************************_

Paulo

unread,
Oct 22, 2008, 4:53:49 PM10/22/08
to Linux-Sur
Seguimos con la teoría y clases en las reuniones jj ahora un comando
fundamental el apt

Advanced Packaging Tool
http://es.wikipedia.org/wiki/APTonCD
(Redirigido desde APTonCD)
Saltar a navegación, búsqueda
Advanced Packaging Tool
Desarrollador: Proyecto Debian
Última versión: 0.7.16[1]
Escrito en: C
S.O.: Multiplataforma
Género: Sistema de gestión de paquetes
Licencia: GNU GPL
En español: Sí
Sitio Web: www.debian.org/doc/manuals/apt-howto/index.es.html
Este artículo o sección necesita fuentes o referencias que aparezcan
en una publicación acreditada, como libros de texto u otras
publicaciones especializadas en el tema.
Puedes dar aviso al autor principal del artículo pegando el siguiente
código en su página de discusión: {{subst:Aviso referencias|Advanced
Packaging Tool}} ~~~~

Advanced Packaging Tool, (tcc APT), es un sistema de gestión de
paquetes creado por el proyecto Debian. APT simplifica en gran medida
la instalación y eliminación de programas en los sistemas GNU/Linux.

No existe un programa apt en sí mismo, sino que APT es una biblioteca
de funciones C++ que se emplea por varios programas de Línea de
comandos para distribuir paquetes. En especial, apt-get y apt-cache.

Existen también programas que proporcionan un frontispicio para APT,
generalmente basados en apt-get, como aptitude con una interfaz de
texto ncurses, Synaptic con una interfaz gráfica GTK+, o Adept con una
interfaz gráfica Qt. Existe un repositorio central con más de 21.000
paquetes apt utilizados por apt-get y programas derivados para
descargar e instalar aplicaciones directamente desde Internet,
conocida como una de las mejores cualidades de Debian.

APT fue diseñado originariamente para trabajar con paquetes .deb, en
lo sistemas Debian y distribuciones derivadas, pero desde entonces ha
sido modificado para trabajar con paquetes RPM, con la herramienta apt-
rpm, y para funcionar en otros sistemas operativos, como Mac OS X
(Fink) y OpenSolaris (distribución Nexenta OS).

Referencias [editar]

1. ↑ Debian -- Details of package apt in sid. Consultado el
2008-10-21.

Véase también [editar]
Portal: Software libre

* dpkg, usado por APT para instalar y desinstalar paquetes Debian.
* aptitude, frontispicio en modo texto para apt-get
* apt-rpm, versión de APT modificada para usar RPM Package
Manager.
* Fink, un proyecto para portar programas Linux a Mac OS X, que
utiliza APT.
* Synaptic, GUI GTK.
* Adept, GUI Qt.
* sources.list

Enlaces externos [editar]

* Apt para distribuciones basadas en RPM.
* APT Howto de Debian en español.

Paulo

unread,
Oct 23, 2008, 12:50:21 PM10/23/08
to Linux-Sur
INSTALAR EL DRIVER DE ATHEROS CON MADWIFI o con NDISWRAPER
_*********************************************************************************************************************_
1. INSTALAR EL DRIVER DE ATHEROS CON MADWIFI
(ya esta implementado en el kernel 2.6.27
Para descargar el driver de atheros
http://www.atheros.cz/download.php?atheros=AR5007EG&system=1

http://www.mclarenx.com/2008/06/17/atheros-ar242x-ar5007eg-en-ubuntu-linux-804/
Soy consciente de que mucha gente tiene problemas con la tarjeta de
red inalámbrica Atheros AR5007EG por lo que voy a explicar como
hacerla funcionar en Ubuntu Linux 8.04 Hardy Heron, aunque este mismo
método debe funcionar en otras versiones. Hay dos maneras, utilizando
Ndiswrapper como ya expliqué para las Broadcom (para AMD64), o bien
con Madwifi (sistemas de 32 bits), que es como lo voy a contar en esta
ocasión.

1. Preparar el sistema

Lo primero es comprobar que realmente nuestra tarjeta wireless es una
Atheros por lo que escribimos lo siguiente en un terminal:

:~$ lspci | grep Wireless
05:00.0 Ethernet controller: Atheros Communications Inc. AR242x
802.11abg Wireless PCI Express Adapter (rev 01)

Si esa es la salida que nos devuelve la instrucción entonces vamos
bien.

Ahora vamos a instalar el paquete build-essential para poder compilar
el Madwifi. Como siempre yo lo explico por consola pero se puede hacer
igualmente por Synaptic o cualquier otro gestor de paquetes.

:~$ sudo aptitude install build-essential

Es aconsejable, además, que tengas el sistema totalmente actualizado
(con las últimas cabeceras de kernel y demás) así que sería bueno
hacerle una pasadita al Gestor de Actualizaciones antes de empezar.

Necesitamos deshabilitar los controladores restringidos que trae
Ubuntu por defecto. Para ello entra en Sistema > Administración >
Controladores de hardware. Allí desactiva tanto el Atheros Hardware
Access Layer (HAL) como el Support for Atheros 802.11 wireless LAN
cards. Nos pedirá reiniciar.

Necesitamos los nuevos controladores para nuestra Atheros AR5007EG.
Descárgalos desde aquí. Después descomprime el fichero descargado y
accede a la carpeta que se crea:

:~$ tar -xzvf madwifi-hal-0.10.5.6-r3835-20080801.tar.gz
:~$ cd madwifi-hal-0.10.5.6-r3835-20080801

Antes de instalar los nuevos controladores, hay que eliminar todo
rastro anterior de Madwifi:

:~$ sudo rm -rf /lib/modules/$(uname -r)/madwifi

2. Instalar los controladores

Ahora sí, vamos con lo gordo. Compilamos e instalamos los nuevos
controladores:

:~$ sudo make
:~$ sudo make install

Si no ha dado ningún error y todo ha ido bien ya solo nos queda volver
a activar los controladores restringidos en Sistema > Administración >
Controladores de hardware. Reinicia y listo.

Resumen

Deshabilitar los controladores privativos de Atheros (reiniciar),
descargar nuevos controladores de aquí, ejecutar el siguiente código:

:~$ sudo aptitude install build-essential
:~$ tar -xzvf madwifi-hal-0.10.5.6-r3835-20080801.tar.gz && cd madwifi-
hal-0.10.5.6-r3835-20080801
:~$ sudo make
:~$ sudo rm -rf /lib/modules/$(uname -r)/madwifi
:~$ sudo make install

Habilitar de nuevo los controladores privativos (reiniciar).
_****************************************************************************************************************_
INSTALARLO CON EL NDISWRAPER (En KDE, existe una versión del
ndiswraper grafica muy cómoda y facil) Buscar en el adept windows
wireless driver, o ath (de atheros), también instalar el madwifi

nstalarla con los drivers de Windows, pero finalmente funciona gracias
al maravilloso NdisWrapper. Que se encarga precisamente de eso:
instalar y gestionar drivers de tarjetas de red inalámbricas en Linux
utilizando el kernel de Windows. Es importante que compruebes si lo
tienes instalado o no.

Antes de empezar os quiero recordar que todo esto lo realizo en un AMD
Turion 64 X2 y, por supuesto, con la versión AMD64 del Kubuntu en
cuestión.

Lo primero y más importante es saber qué chip utiliza nuestra tarjeta
de red inalámbrica, para ello abrimos una shell (consola de comandos)
y escribimos lo siguiente:

:~$ lspci | grep Broadcom
01:00.0 Network controller: Broadcom Corporation BCM4310 UART (rev 01)

Esta es la mia, el proceso debería servir para cualquiera gracias al
NdisWrapper pero no os aseguro nada. Si tenéis esta, funciona seguro.

Necesitamos el Network Manager, normalmente suele venir instalado pero
por si acaso os digo como hacerlo:

:~$ sudo apt-get install network-manager
:~$ sudo apt-get install network-manager-kde

Evidentemente si utilizáis Ubuntu (con escritorio gnome) tendréis que
sustituir en la última línea kde por gnome.

Ahora tenemos que desactivar el módulo bcm43xx:

:~$ lsmod | grep 43xx
bcm43xx 148500 0
ieee80211softmac 40704 1 bcm43xx
ieee80211 39112 2 bcm43xx,ieee80211softmac

Nos devolverá algo similar a eso así que tenemos que agregarlo a la
blacklist:

:~$ sudo gedit /etc/modprobe.d/blacklist

Lo que abrirá el fichero con gedit, si no lo tenéis no importa, podéis
utilizar cualquier otro editor de textos. Al final del fichero debéis
agregar la línea:

blacklist bcm43xx

Guardamos los cambios realizados en el fichero y salimos del editor.
Entonces es cuando desactivamos el módulo:

:~$ sudo modprobe -r bcm43xx

Vamos a necesitar el cabextract y algunas cabeceras:

:~$ sudo apt-get install build-essential cabextract
:~$ sudo apt-get install linux-headers-`uname -r`

El siguiente paso es muy importante. Si comprobaste que tenías
instalado el NdisWrapper salta a la parte de descargar el driver de la
tarjeta. En caso contrario debes descargartelo de aquí y guárdarlo en
una carpeta (yo utilicé ndis) del directorio home. Para instalarlo
simplemente sigue estos pasos:

:~$ cd ~/ndis
:~$ tar -xzvf ndiswrapper-1.44.tar.gz
:~$ cd ~/ndis/ndiswrapper-1.44
:~$ make distclean
:~$ make
:~$ sudo make install

Descarga el driver para nuestra tarjeta de red inalámbrica desde aquí
y guárdalo en una nueva carpeta (yo utilicé driver-wifi) del
directorio home. Es este momento es cuando vamos a instalar el driver
propiamente dicho:

:~$ cd ~/driver-wifi
:~$ cabextract sp33008.exe
:~$ sudo ndiswrapper -i bcmwl5.inf
:~$ ndiswrapper -l
:~$ sudo ndiswrapper -m
:~$ sudo modprobe ndiswrapper

Ya está instalado el driver, ahora tenemos que editar las interfaces
de red para que funcione correctamente:

:~$ sudo gedit /etc/network/interfaces

En este fichero aparecerán algunas líneas comentadas (empiezan por #)
y otras sin comentar. Debemos tener todas comentadas excepto estas
dos:

auto lo
iface lo inet loopback

Así que el resto de líneas que tengan texto, ya sea antes o después de
estas dos, les ponemos una # delante. Guardamos los cambios y cerramos
el editor de textos. Ya sólo quedan un par de detalles:

:~$ sudo gedit /etc/default/wpasupplicant

Si el fichero está en blanco o no existe la siguiente línea, la
ponemos:

ENABLED=0

Guardamos y cerramos. Ahora añadimos el NdisWrapper a la lista de
módulos para que se cargue al inicio:

:~$ sudo gedit /etc/modules

Agregamos al final del fichero la siguiente línea:

ndiswrapper

Guardamos y cerramos. Finalmente reiniciamos los servicios de red:

:~$ sudo /etc/init.d/dbus restart

Ya deberíais tener vuestra wireless funcionando perfectamente. A mi me
pasa que en las redes sin contraseña conecta rápido, pero en la de mi
router con encriptación WPA-TKIP tarda bastante en enganchar, pero
termina por hacerlo y funciona perfectamente.

Espero que esta guía os haya servido para poder disfrutar de vuestra
conexión inalámbrica. Y ya sabéis que podéis comentarme cualquier
duda, sugerencia o error.
_****************************************************************************************************************_

_**********************************************_
WIFI: de un laptop compaq presario c700 (portatil de banesto) Atheros
AR5007 802.11b g Wireless LAN Driver
ndiswraper: tienes que conseguir el *.inf del driver. algunos *.exe se
pueden extraer (son como un zip) pero depende de cada caso
(busca por google el inf del driver. un driver de windows no puede
instalarse en una maquina Ubuntu... te puede dar muchos errores
(diversos y variados)... intenta buscar el codigo fuente si no
encuentras en los repos el paquete del driver---

Ejentonces no lo ejecuto con el wine para sacar el archivo .inf

Para saber el Driver de Wifi mostrar el chip exacto de la wifi lspci
| grep -i ATH
01:00.0 Ethernet controller: Atheros Communications Inc. AR242x
802.11abg Wireless PCI Express Adapter (rev 01)

<<< aqui hay instrucciones para poner drivers linux desde fuentes inf
para ndiswrpper http://www.mclarenx.com/2008/06/17/atheros-ar242x-ar5007eg-en-ubuntu-linux-804/
aqui bajas el driver de atheros: http://www.atheros.cz/download.php?atheros=AR5007EG&system=1

- esa wifi es compatible con madwifi con un parche especial no hace
falta el parche con bajarse el ultimo madwifi de la web llega
yo tengo el madwifi instalado pero me parece que no tiene interfaz

para que me funcione en linux debia bajar hal especial...

HAL: is simply an interface that makes it possible to add support for
new devices and new ways of connecting devices to the
computer, without modifying every application that uses the device. It
maintains a list of devices that currently exist, and can provide
information about those upon request.

has tratado de cargar los modulos ath_pci y ath_hal ? instalar tb el
atl2 sources
ya te he dado los dos enlaces que necesitas. 1 es el inf para usar
ndiswrapper si lo deseas y el otro las instrucciones para actualizar
madwifi si prefieres esa opcion

eso como se carga con synaptic? sudo modprobe ath_pci ath_hal eso no
me hace nada en la consola
y ahora prueba esto lsmod ath_pci o ath_hal para ver si lo cargo
comprueba con "iwconfig" si tienes ahora la interfaz wireless despues
de eso tienes que volver a iniciar sesion :)
lo no wireless extensions.
eth0 no wireless extensions.


_****************************************************************************************************************_
_****************************************************************************************************************_

Paulo

unread,
Oct 23, 2008, 1:28:27 PM10/23/08
to Linux-Sur
PULSE AUDIO (SERVIDOR DE SONIDO) POSIX Y ALSA Vs OSS

1. PULSE AUDIO (SERVIDOR DE SONIDO)
2. POSIX (Conjunto de normas y especificaciones solicitada por el
IEEE)
3. ALSA (Lo que empezó como un driver de sonido con la finalidad de
configuración automática de tarjetas de sonido y el manejo de
multiples dispositivos de sonido )
4. OSS (el ALSA)

http://www.mclarenx.com/2008/07/28/pulseaudio-soluciona-los-problemas-de-sonido-en-ubuntu/

PulseAudio soluciona los problemas de sonido en Ubuntu

28 Julio 2008 a las 20:14 por McLarenX | Se lee en 3'04 minutos.

Es habitual, sobretodo en ordenadores de sobremesa, que dispongamos de
2 tarjetas de sonido: la propia de la placa y otra PCI (una Sound
Blaster Audigy, por ejemplo). Ante esta situación, Ubuntu no se aclara
con la que debe tomar como principal así que, aleatoriamente, elige
una u otra en el arranque del sistema.

Como nosotros tendremos los altavoces siempre conectados a una de
ellas (a la PCI seguramente) queremos que siempre coja esa como
principal. Además queremos que todos los programas que necesiten
reproducir audio lo hagan a través de esta tarjeta de sonido y no de
la otra. Esto lo conseguimos gracias a PulseAudio.
Instalación

A partir de Ubuntu 8.04 Hardy Heron, PulseAudio viene instalado por
defecto, en cualquier caso hay que instalar también el controlador por
lo que escribimos la siguiente línea en un terminal:

:~$ sudo aptitude install pulseaudio pavucontrol

Configuración
PulseAudio

No hace falta configurar nada para que funcione perfectamente, lo
único que quiero comentar es que si tenemos un sistema de altavoces
5.1 o 7.1 (en realidad, cualquier sistema que tenga más de 2
altavoces) podemos hacerlos funcionar todos a la vez. De momento, en
esta versión, no funciona el efecto 5.1 y demás pero al menos suenan
todos los altavoces.

Vamos a abrir el fichero de configuración de PulseAudio:

:~$ sudo gedit /etc/pulse/daemon.conf

Buscamos la línea que pone:

; default-sample-channels = 2

Y la cambiamos por:

default-sample-channels = 6

Es totalmente necesario quitar el ; (punto y coma) del principio de la
línea, además de poner el número de altavoces que tenemos, si es un
sistema 5.1 pondremos 6, si es un 7.1 pondremos 8, etc. Salva el
fichero. Cuando reiniciemos el sistema estará operativo.
Control de Volumen

Antes de empezar a utilizar PulseAudio hay que modificar una cosa del
Control de Volumen de Ubuntu. Para abrirlo simplemente hacemos click
con el botón derecho sobre el altavoz que nos aparece al lado de la
hora, después pulsamos en Abrir control de volumen.

Aquí nos vamos a asegurar de que la tarjeta de sonido que está
seleccionada es la que queremos utilizar. Normalmente el nombre de la
interna suele empezar llamándose VIA y, en mi caso, la Sound Blaster
Audigy se llama Audigy 1 [SB0090].

Vamos a Archivo > Cambiar dispositivo y seleccionamos la tarjeta que
queramos utilizar, en mi caso la Audigy. Ahora vamos a la pestaña
Conmutadores y dejamos desmarcada la casilla Audigy Analog/Digital
Output Jack. Si no hacemos esto, el sonido no funcionara de ninguna
manera.
Manejo del sonido

Ahora sí podemos empezar a utilizar PulseAudio. La manera gráfica de
hacerlo es abriendo el pavucontrol que instalamos antes. Para ello
podemos ir a Aplicaciones > Sonido y vídeo > PulseAudio Device Chooser
o en un terminal escribir:

:~$ pavucontrol

Si lo hemos hecho a través del menú, aparecerá al lado del reloj un
icono nuevo con la forma de un jack de auriculares. Pincha sobre el
icono y se despliega un menú, ahora entra en Volume Control. Si lo has
hecho por consola aparecerá directamente la ventana que queremos.

En dicha ventana tenemos 3 pestañas. La primera es Playback. Aquí
aparecerán todas las aplicaciones que están deseando reproducir
sonido. Si hacemos click con el botón derecho sobre el nombre de la
aplicación aparece un menú, pulsamos en Move Stream… y nos aparecerán
las tarjetas de sonido conectadas al ordenador. Elegimos la que
queramos que reproduzca el sonido de esta aplicación. Y así con todas.

Playback - Volume Control - Pulse Audio

En las otras dos pestañas lo que tenemos son las tarjetas conectadas
al ordenador y los volúmenes de sus canales. Aquí aconsejo que,
utilizando el mismo método de antes, pongamos la que deseemos como
Default al hacer click con el botón derecho.

Output Devices - Volume Control - PulseAudio
Resumen

Instalar PulseAudio y el PulseAudio Volume Control:

:~$ sudo aptitude install pulseaudio pavucontrol

Configurar PulseAudio para reproducir 5.1. Abrir fichero:

:~$ sudo gedit /etc/pulse/daemon.conf

Buscamos la línea que pone:

; default-sample-channels = 2

Y la cambiamos por:

default-sample-channels = 6

Click derecho sobre el icono del altavoz (al lado de la hora).
Abrir el control de volumen.
Archivo > Cambiar dispositivo y elegir tu tarjeta de sonido.
En la pestaña Conmutadores desmarcar la casilla Audigy Analog/Digital
Output Jack.

Abrir el PulseAudio Volume Control:

:~$ pavucontrol

En la pestaña Playback, click derecho sobre el nombre de cada
aplicación que utilice sonido, en Move Stream seleccionar la tarjeta
de sonido que queramos utilizar.
En las otras dos pestañas, poner Default a la tarjeta de sonido que
queramos que sea predeterminada.

Reiniciar para que funcionen todos los altavoces.
-
*****************************************************************************************************************-
http://es.wikipedia.org/wiki/PulseAudio
PulseAudio (antes PolypAudio) es un servidor de sonido
multiplataforma, capaz de funcionar por red, licenciado bajo la
licencia LGPL. Funciona bajo sistemas compatibles con POSIX como Linux
y otros sistemas operativos como Microsoft Windows. Esta pensado para
ser un reemplazo para el servidor Enlightened Sound Daemon.
Operación [editar]

PulseAudio es un servidor de sonido. Es un proceso ejecutándose en
segundo plano aceptando una o más fuentes de sonido, como por ejemplo
otros procesos o tarjetas capturadoras, redirigiendolo a uno o varios
destinos, como por ejemplo tarjetas de sonido, otros servidores
PulseAudio remotos u otros procesos.

Uno de los objetivos de PulseAudio es redirigir todos los flujos de
sonido a través de él mismo, incluyendo aquellos flujos que provienden
de procesos que intentan acceder directamente al hardware (como
aplicaciones OSS). PulseAudio consigue esto proporcionando adaptadores
a las aplicaciones que usan otros sistemas de sonido (como aRts o
ESD).

En una típica situación en un entorno Linux, el usuario configura ALSA
para usar un dispositivo virtual proporcionado por PulSeAudio.
Entonces, las aplicaciones que usan ALSA enviarán el sonido a
PulseAudio, el cual usa el propio ALSA para acceder al dispositivo
físico ( por ejemplo, una tarjeta de sonido).

PulseAudio también proporciona su propia interfaz nativa para aquellas
aplicaciones que quieran usar PulseAudio directamente, al igual que
interfaces para aplicaciones que usan ESD.

Para aplicaciones OSS, PulseAudio proporciona el programa padsp, el
cual sustituye ficheros de dispositivo como /dev/dsp, haciendo creer a
las aplicaciones que controlan directamente el dispositivo físico
(tarjeta de sonido), cuando en realidad el sonido que producen es
redirigido al servidor
PulseAudio

-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
http://es.wikipedia.org/wiki/POSIX
POSIX es el acrónimo de Portable Operating System Interface; la X
viene de UNIX como seña de identidad de la API. El término fue
sugerido por Richard Stallman en respuesta a la demanda de la IEEE,
que buscaba un nombre fácil de recordar. Una traducción aproximada del
acrónimo podría ser "Interfaz de Sistema Operativo Portátil basado en
UNIX

++++++MEDIO EN CRISTIANO: son una familia de estándares de llamadas al
sistema operativo definidos por el IEEE y especificados formalmente en
el IEEE 1003. Persiguen generalizar las interfaces de los sistemas
operativos para que una misma aplicación pueda ejecutarse en distintas
plataformas. Estos estándares surgieron de un proyecto de
normalización de las API y describen un conjunto de interfaces de
aplicación adaptables a una gran variedad de implementaciones de
sistemas operativ
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
ALSA( Arquitectura de Sonido Avanzada para Linux)
http://es.wikipedia.org/wiki/Advanced_Linux_Sound_Architecture

Última versión: 1.0.17 (14 de julio de 2008)
S.O.: GNU/Linux
Género: Audio
Licencia: GNU GPL y GNU LGPL
En español: Si
Sitio Web: www.alsa-project.org

El módulo de Arquitectura de Sonido Avanzada para Linux (más conocido
por el acrónimo ALSA de sus siglas en inglés Advanced Linux Sound
Architecture). Licenciado bajo GPL. En su origen (año 1998) fue un
driver totalmente independiente del núcleo de Linux, y en 2002 fue
incluido en la rama de desarrollo 2.5, pasando a ser el sistema
oficial de sonido de Linux para la rama 2.6. Actualmente ha
reemplazado a la antigua implementación de OSS (versión 3.x) pero la
compañía 4Front Technologies ha liberado la versión 4.x es una real
mejora en todos los aspectos, OSS4 tiene una implementación en
diferentes sistemas (linux, freebsd, etc) a diferencia de ALSA que
solo tiene implementación para Linux.

Algunas de las metas de este proyecto desde su concepción fueron la
configuración automática de tarjetas de sonido y el manejo de
multiples dispositivos de sonido en un sólo sistema, metas las cuales
han sido en su mayor parte alcanzadas. Existen algunos frameworks como
JACK que utilizan ALSA para desempeñar un sistema de edición y
mezclado de audio de grado profesional y de baja latencia.

-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
EL OSS
http://en.wikipedia.org/wiki/Open_Sound_System
Open Sound System
From Wikipedia, the free encyclopedia
Jump to: navigation, search
Open Sound System Design by Hannu Savolainen
Developed by 4Front Technologies
Initial release 1992
Latest release 4.0 (b1016) / July 17 2008 (2008-07-17); 89 days
ago[1]
OS Cross-platform
Type Audio
License BSD License / Common Development and Distribution License /
GNU General Public License / Proprietary
Website http://www.opensound.com/

The Open Sound System (OSS) is a standard interface for making and
capturing sound in Unix operating systems. It is based on standard
Unix devices (i.e. POSIX read, write, ioctl, etc.). The term also
refers sometimes to the software in a Unix kernel that provides the
OSS interface; in that sense it can be thought of as a device driver
or collection of device drivers for sound controller hardware. The
goal of OSS is to allow one to write a sound-based application program
that works with any sound controller hardware, even though the
hardware interface varies greatly from one type to another.

OSS was created in 1992 by Hannu Savolainen and is available in 11
major Unix-like operating systems. OSS is distributed under four
license options, three of which are free software licences, thus
making OSS free software.[2]
Contents
[hide]

* 1 Free, proprietary, free
* 2 OSS in relation to ALSA
* 3 OSS/3D
* 4 See also
* 5 References
* 6 External links

[edit] Free, proprietary, free

The project was initially free software, but following the project's
success, Savolainen was contracted by the company 4Front Technologies
and made his support for newer sound devices and improvements
proprietary. In response, eventually the Linux community abandoned the
OSS/free implementation included in the kernel (an outdated 3.x
version, while 4front continued working on 4.x[1]) and development
effort switched to the replacement Advanced Linux Sound Architecture
(ALSA). Many free software operating systems such as Linux and FreeBSD
continued to distribute previous versions of OSS, and continued to
maintain and improve these versions.

In July 2007, 4Front Technologies released sources for OSS under CDDL
for OpenSolaris and GPL for Linux.[2] In January 2008, 4Front
Technologies released OSS for FreeBSD (and other BSD systems) under
BSD License.[3]

[edit] OSS in relation to ALSA

In the Linux kernel, there have historically been two uniform sound
APIs used. One is OSS; the other is ALSA (Advanced Linux Sound
Architecture). ALSA is available for Linux only, and as there is only
one implementation of the ALSA interface, ALSA refers equally to that
implementation and to the interface itself.

OSS is the standard up through the 2.4 series of official (kernel.org)
Linux kernels. ALSA was added starting with 2.5, and in those
versions, Linux kernel authors marked OSS as deprecated. 4Front
continued to develop OSS outside of Linux kernel.

ALSA provides an optional OSS emulation mode that appears to programs
as if it were OSS. Similarly, there is an ALSA emulation mode in the
Linux implementation of OSS.

While some recommend the ALSA interface for software that is intended
to work on modern Linux only, software intended to be portable across
Unixes typically uses OSS instead.

Developers[4] often find OSS better documented than ALSA and find OSS
API much simpler.

[edit] OSS/3D

OSS/3D is a plugin for music players, which acts as an audio
postprocessing engine. Supported players include Winamp, Windows Media
Player (9 or later), musicmatch, Sonique, Foobar2000, JetAudio, XMMS.
It is ported to Windows and Linux platforms. Unlike the OSS, it is
shareware.
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-

-
*****************************************************************************************************************-
-
*****************************************************************************************************************-
-
*****************************************************************************************************************-

Paulo

unread,
Oct 23, 2008, 3:21:12 PM10/23/08
to Linux-Sur
SEGURIDAD: ¿PUERTAS TRASERAS EN EL HARDWARE?
http://www.kriptopolis.org/procesadores-maliciosos


Procesadores maliciosos podrían abrir nuevas posibilidades de ataque
Enviado por admin el 18. Octubre 2008 - 19:27.

* Seguridad

No hay descanso para los paranoicos. Ya podemos disponer del mejor
sistema operativo, completamente parcheado y al día, con todas las
medidas preventivas activadas, rigurosos mecanismos de registro y
control y excelentes prácticas de uso. Pero... ¿quién nos asegura que
nuestro procesador no incluye una puerta trasera capaz de permitir el
acceso a un intruso y hacer que todas las medidas de seguridad basadas
en software no sirvan absolutamente para nada?

Un excelente trabajo firmado por investigadores de la Universidad de
Illinois nos muestra vías factibles de introducir circuitos maliciosos
en algún momento de la compleja y delicada cadena que interviene en el
diseño y fabricación de un procesador. Por ejemplo, bastan poco más de
mil puertas lógicas "extras" para proporcionar a nuestro flamante
hardware un acceso del máximo nivel a un eventual intruso.

¿Qué tipo de intruso? Los autores lo dejan bastante claro:

"Existen organizaciones con la competencia, recursos y motivación
para construir y desplegar circuitos maliciosos".

Las conclusiones del trabajo son bastante claras:

"Los procesadores maliciosos son más prácticos, flexibles y
difíciles de detectar de lo que un análisis superficial pudiera
sugerir. El hardware malicioso merece ser tenido en cuenta como objeto
de investigación".

Paulo

unread,
Oct 28, 2008, 10:15:15 AM10/28/08
to Linux-Sur
http://marbalandia.wordpress.com/2007/11/19/ares-en-linux-sin-wine-sin-emularlo/
Ares en Linux sin Wine (sin emularlo)

19 Noviembre, 2007 por Maharba

¿Quién no ha usado este programa p2p?, asumo que la mayoría hemos
acudido a este tan útil programa, especialmente cuando deseamos
escuchar alguna canción en especial.

Instalarlo en Windows no es ningún problema, Siguiente > siguiente >
siguiente > … Finalizar; aunque en Linux se puede hacer lo mismo, ya
que se puede instalar gracias a Wine (un emulador para aplicaciones
hechas para Windows ), desgraciadamente no logra conectarse (esto se
resuelve al poner Wine en Compatibilidad Windows ME), y sobretodo,
consume más recursos de los que debiera.

Gracias a una guía en Tuxinga y en El Blog de Chato, se puede instalar
nativamente en Linux, usando una aplicación llamada giFT y añadiendo
el plug-in de Ares.

Aquí dejo las guías:

–//MÉTODO MANUAL (Recomendado)//–

Este es listado a realizar:

1) Instalación del Cliente de redes P2P giFT
2) Instalación de plugin red Ares
3) Instalación de interfase gráfica para gift (para KDE o gnome)
4) Configuración del giFT
5) Actualización de nodos
6) Ejecución

Instalación del Cliente de redes P2P giFT

El cliente de redes giFT se encuentra en los repositorios, solo es
necesario:

sudo apt-get install gift giftcurs giftd giftui libgift0
libgiftproto0 libgnutella-gift libopenft-gift

Esto instala el cliente de redes giFT, todavía no tiene entorno
gráfico ni soporte para la red Ares.



Instalación de plugin red Ares

Para este paso es necesario complicar el source de gift-ares-0.3.0

Pagina del proyecto: http://developer.berlios.de/projects/gift-ares/
Descarga: (source): http://prdownload.berlios.de/gift-ares/gift-ares-0.3.0.tar.gz

Para compilarlo es necesario tener instalados:

build-essential
libgift-dev
zlib-bin
zlibc
zlib1g-dev
libgiftproto-dev

Se encuentran fácilmente en el gestor de paquetes synaptics.
Una ves listo esto se descomprime, compila e instala gift-
ares-0.3.0 :

tar xzvf gift-ares-0.3.0.tar.gz
cd gift-ares-0.3.0
sudo ./configure
sudo make
sudo make install

Con estos pasos ya tendría que estar disponible el plugin para
giFT.

Instalación de interfase gráfica para gift (para KDE o gnome)

Para KDE tenemos Apollon y para gnome giFTOXIC
Instalación en KDE:

sudo apt-get install apollon

instalación en Gnome:

sudo apt-get install giftoxic



Configuración de giFT

El gift es un deamon, esto quiere decir que corre en segundo plano
y con un cliente nos conectamos a el para poder utilizarlo. La base
del funcionamiento de el y las redes que le incorporemos, en este caso
la red Ares, dependerán de su archivo de configuración giftd.conf
situado en /home/usuario/.giFT/giftd.conf (siendo usuario el nombre de
tu usuario en tu sistema linux).
Para configurarlo tiene que ejecutar (como usuario)

gift-setup

De ahí se desprenderán una serie de preguntas las cuales
corresponden a la configuración normal de cualquier red p2p: puertos,
velocidad, sharing folders,etc.

En mi caso cree una carpeta Descargas en mi Carpeta Personal y
este es mi archivo de configuración:

######INICIO DE ARCHIVO
giftd.conf#########################[main]# Boolean determining whether
or not this file has been reviewed and is

# complete. giFT will fail to start unless this is non-zero.
This is done

# so that we can make sure you, at the very least, read
through this file.

# Default: 0

setup = 1

# Space separated list of hosts to allow connection to giFT's
interface

# protocol (running default on port 1213). This protocol is
used for GUIs

# to communicate with giFT and could be considered a security
risk to allow

# external connections.

# The following special keywords are supported:

# ALL - Synonym for 0.0.0.0/0

# LOCAL - Synonym for 127.0.0.0/8 192.168.0.0/16 172.0.0.0/11
10.0.0.0/8

# Bitwidth fields are optional.

# Default: LOCAL

hosts_allow = LOCAL

# Port on which to listen for user interface connections.
Unless you have a

# special need to talk to the client on a non-standard port,
just accept the

# default.

# NOTE:

# If you change this value, you will also need to modify the
ui.conf

# configuration for the machine which will be making outgoing
connections

# here.

client_port = 1213

# Determines whether or not to follow symbolic links. If this
value is set

# non-zero, symlinks will be traversed and a directory inode
tracking system

# will be used to ensure that giFT does not descend the same
directory

# twice. If you do not have any symlinks or do not want them
traversed, set

# this to 0 for a very minor efficiency gain.

# Windows users: this setting has no effect.

# Default: 1

follow_symlinks = 1

# Colon separated list of protocol plugins to load by default.
If dynamic

# library support is enabled, the plugin specified will be
stat'd to check if

# it is a loadable path. If that fails, the fallback method is
to attempt to

# construct the fully qualified path based on the configured
environment.

# NOTES:

# Without dynamic library support, this plugin must have been
compiled into

# your giFT binary. With, this plugin must exist in the
installed

# plugin directory. giFT -V will output this path to you, if
you are not

# sure.

# Protocol names are case sensitive, so use OpenFT, not
Openft.

# For example, to use the OpenFT and Gnutella protocols use:

# OpenFT:Gnutella

# Default: none

plugins = Ares


###############################################################################

# DOWNLOAD CONTROLS

[download]

# Directory to store transfers while they are being operated
on. Temporary

# state files are also kept here. It is recommended, but not
required, that

# the incoming and completed directories are on the same
partition (drive).

# Windows users: please use the following path specification:

# incoming = /C/Program Files/giFT/incoming

# For example, to refer to C:\Program Files\giFT\incoming,
use:

# incoming = /C/Program Files/giFT/incoming

# Default (*nix): ~/.giFT/incoming

# Default (Windows): /C/Program Files/giFT/incoming

incoming = ~/.giFT/incoming

# Directory which will contain files after they have
successfully finished

# downloading.

# Default (*nix): ~/.giFT/completed

# Default (Windows): /C/Program Files/giFT/completed

completed = ~/Descargas


###############################################################################

# SHARE SUBMISSION AND UPLOAD CONTROL

[sharing]

# Maximum amount of uploads allowed from the same user at any
given time. It

# is recommended that you keep this at 1 in order to prevent
users from

# unfairly queueing your connection.

# Default: 1

max_peruser_uploads = 1

# Determines whether or not to hide directories which contain
a leading dot.

# These directories are commonly meant to be "hidden" and thus
should not be

# submitted to the network. Selecting 0 here will submit all
directories.

# On Windows files will additionally be checked for the hidden
attribute and

# not shared if it is set and hide_dot_files is 1.

# Default: 1

hide_dot_files = 1

# Colon separated list of fully qualified paths you wish to
share. These

# directories will be recursed at giFT's startup and the files
contained

# within will be subjected to an MD5 hashing. The results will
be cached and

# will only be recalculated on a per share basis when the size
or

# modification time in the cache and on disk disagree, or the
file name is

# changed.

# Sanity notice:

# Do NOT share source directories! Remote nodes will refuse to
index your

# shares if you are attempting to submit more than 64000
files.

# Security notice:

# Do not share directories which may contain sensitive
information, such as

# ~ ($HOME). Also note that any directories shared here will
be stripped of

# all but the last path element when submitted to other nodes
for indexing,

# effectively "hiding" the directory prefix.

# Windows users: please use the following path specification:

# /[drive]/dir1/dir2:/[drive]/dir3/dir4 ...

# For example, to refer to C:\Program Files\giFT\shares and D:
\shares, use:

# /C/Program Files/giFT/shares:/D/shares

# Default: none

root = none

# Maximum amount of simultaneous uploads allowed. Setting this
to 0 will

# cause giFT to not limit outgoing transfers. Use
shares_hidden to disable

# sharing.

# Default: 0

max_uploads = 1

# Whether we allow sharing. Setting this to 0 will allow
sharing and uploads

# up to max_uploads. If this is 1 your shares will be hidden
from the world

# and uploading will be denied. This may also be handled at
run time via your

# GUI of choice.

# Default: 0

shares_hidden = 1

# Controls when giFT periodically rescans your shared
directories for any

# changes (new files, missing files, changed files, etc.) and
communicates

# those changes to the underlying protocols. This parameter
specifies how

# often (in seconds) you want that to happen.

# For your reference

# 0 turns off periodic auto-resync

# 3600 one hour

# 86400 one day

# 604800 one week

# Default: 86400

auto_resync_interval = 0

# Controls whether or not giFT should automatically share
files that you have

# finished downloading. This feature significantly improves
the network's

# abundance of files and helps ease the load on those sharing
popular files.

# It's a Good Thing (TM), please leave it on.

# Avoid setting your completed directories through sharing/
root, as that

# setting will duplicate recursion of the completed directory
and cause

# generally undesirable results.

# Default: 1

share_completed = 1

# Controls whether giFT ignores the incoming directory when
sharing files. If

# this is 1 and the incoming directory is within one of the
sharing roots all

# files in and below it will not be shared. This is what you
want in all known

# universes. Should you find yourself running this software on
a parallel

# world where it is necessary to share the incoming files
please make sure it

# doesn't affect us back here. Thank you.

# Default: 1

ignore_incoming = 1


###############################################################################

# USER SPACE BANDWIDTH CONTROL

-

[bandwidth]

------------

# Bandwidth throttling allows giFT to have some basic control
over your

# bandwidth usage. This code operates in user space, and as a
result can not

# guarantee perfect accuracy. If you wish to use this feature,
please

# consider using a more reliable kernel space option first. As
always, google

# should be able to assist you there.

# The following configuration switches control the maximum
number of bytes

# per second allowed for the given stream direction. A setting
of 0 will

# disable throttling for that direction.

# Default: 0

downstream = 0

upstream = 0

username [] = tuxinga

sessions [4] = 15

timeout [300] =

#######FIN DE ARCHIVO giftd.conf##################

Para que la red Ares funcione correctamente hay que actualizarle
los nodos. Encostre esta web http://update.kceasy.com/update/ en donde
se pueden descargar los nodos ordenados por redes.

Se descarga el archivo necesario (en este caso de Ares) y se ponen
en la carpeta oculta en el directorio personal .giFT/Ares (/home/
usuario/.giFT/Ares)

Seguramente para descargarlo tendran que hacer clic derecho
“Guardar enlace como” y en la ventana borrar la terminación .htm y que
quede solo “nodes”

Ejecución

Finalmente para hacerlo funcionar una vez instalado solo hace
falta ejecutar el deamon

giftd -v

y luego su entorno desde la lista de aplicaciones.
De todas formas ambos gui (Interfaz gráfica) al ejecutarse si no
esta giftd funcionando lo hacen arrancar

–//MÉTODO SCRIPT//–

Todo lo anterior también pueden hacerlo con un script (hecho por
chato), aquí dejo el enlace de descarga:
http://www.mediafire.com/?j5rn2wpywnb

Dependiendo de que tan rápida sea su computadora, tardará menos el
script, ya que tiene que compilarse.

Si al ejecutarlo, no conecta, simplemente ejecutamos en una terminal:
giftd -d

Si no funciona, con escribir giftd -v en la terminal bastará (Tal y
como dice el script al finalizar la instalación).

En ambos métodos, pueden encontrar giFT en Aplicaciones > Internet en
GNOME, y en KDE en Menú K > Internet.

Yo recomiendo el método manual, ahí saben exactamente que es lo que
están haciendo y si llega el caso de que cometieran un error, sabrán
en dónde arreglarlo (con los conocimientos necesarios, aunque son
mínimos).

Y después de un largo fin de semana en E.U., estoy de vuelta en casa…
a prepararme para los exámenes del Tec.

Escrito en Guías, Linux, Programas | Etiquetado Ares, Emular, Linux,
P2P, Wine | 11 comentarios
11 comentarios para “Ares en Linux sin Wine (sin emularlo)”

1.
en 30 Noviembre, 2007 a 6:00 pm1 amarok37

¡¡Cuantas cosas por tener Ares pudiendo fácilmente instalar un
p2p mucho más potente como es MlDonkey!!

2.
en 30 Diciembre, 2007 a 6:45 am2 aONe

Buen post. Pienso que podrias acortar un poco sobretodo la parte
de la configuracion, ya que en el fondo son 3 o 4 cosas las que se
cambian y para la gente un poco inexperta sería maś sencillo.

los de Poison se podrían currar una versión multiplataforma para
linux, ya que en mac va perfecto con todas las redes (incluido ares) y
funciona con Giftd. Tengo entendido por eso que todo y estar en
sourceforge no es libre… pequeño fallo.

Feliz Navidad!!!

3.
en 30 Diciembre, 2007 a 2:20 pm3 Maharba Z

Eso mismo pensé al momento de publicar la guía, pero créeme que
muchos usuarios inexpertos se confundirán si omito algunos pasos,
aunque no se cambie absolutamente nada, sólo es para familiarizar.

Si alguien no quiere usar el método manual, siempre está el
script para realizar de forma automática las configuraciones.

Saludos y Feliz Año Nuevo :) .

4.
en 21 Marzo, 2008 a 6:09 am4 rubens

que tal mi buen, llegue a tu blog desde tuxinga, siguiendo esta
linea, bueno primero gracias por ayudarnos a volar la espera en
rapidshare y otras mas.
de este tuto de instalacion de ares sin wine, creo haber
compilado todo bien al fin cuando ingreso giftd -v, me dice que la
configuracion no esta bien hecha, decido configurar de nueva cuenta lo
que inicia con el gift setup, dejo los valores tal cual estan en los
default y aun asi no corre, en la GUI aparece como no conectado, soy
medio novaton en mi ubuntu 7.10 en una arquitectura de 64 bits

agradecere mucho tu ayuda, pues quiero dejar de utilizar las
puertas y ventanas

Paulo

unread,
Oct 28, 2008, 2:35:02 PM10/28/08
to Linux-Sur
8 MANERAS DE MANTENER LIMPIO TU PC UBUNTU (PROGRAMAS DE MANTENIMIENTO)
http://maketecheasier.com/8-ways-to-maintain-a-clean-lean-ubuntu-machine/2008/10/07

8 Ways to Maintain a Clean, Lean Ubuntu Machine
Posted by Damien in October 7th 2008
File under: Gaming, Linux Tags: Clean up, Linux, Ubuntu

Image by Nemo’s great uncle

Once in a while, you may want to do some maintenance on your Ubuntu
machine and clean up unnecessary files that are chunking up large
storage space in your hard disk.

Here are 8 ways that you can use to clean up your Ubuntu:

1) Analyze your disk usage

The first thing that you need to do is to find out which files are
consuming the large bulk of the storage space in your hard disk. Go to
Applications->Accessories->Disk Usage Analyzer and click on the Scan
Filesystem at the top to get it to analyze your disk usage pattern.
You will be able to see instantly which files/folders are taking up
the bulk.

disk-usage-analyzer

Once you have determined the files that are taking up large storage
space, you can do the following:

* decide if you have any use of the files. If not, send them to
the trash.
* If you have no immediate use of the file, but will need to
reference to it in the future, either backup to a CD/DVD or to an
external hard disk. If the file is too big, you may want to compress
and split it to several small files for easier storage.

2) Clear duplicate files and broken symlinks

Over the time, you could have dozen copy of the same file lying in
different corners of your system. The best place is to hunt them down
and eliminate them before they take control of the hard disk.

FSlint is a utility to find and clean various forms of lint on a
filesystem, especially duplicate files and broken symlinks.

Install fslint, or via the terminal:

sudo apt-get install fslint

Go to Applications-> System Tools-> FSlint. Add the file path that you
want to search. On the left, click on the Duplicate tab and click Find
at the bottom.

FSlint

Other than finding duplicate files, FSlint can also find broken
symlinks, empty directories, bad IDs and even redundant temp files,
all of which you can delete and recover back your precious disk space.

3) Clean up your package installation

If you have installed and uninstalled a lot of applications, chances
are your system is infected with a lot of dependencies files that you
have absolutely no use for. Here are some useful commands to get rid
of any partial package and remove any unused dependencies:

Cleaning up of partial package:

sudo apt-get autoclean

Cleaning up of the apt cache:

sudo apt-get clean

Cleaning up of any unused dependencies:

sudo apt-get autoremove

A good practice to avoid any left behind is to use the autoremove
command whenever you want to uninstall an application.

sudo apt-get autoremove application-name

4) Get rid of old residual config package

When you upgrade a software to a later version, the package of its
previous version will still be left behind in the system. You will be
able to free up some space by eliminating the old residual config
package

Open up your Synaptic Package Manager (System-> Administration->
Synaptic Package Manager). On the left, click on the Status button.
You will see a few options appear on the top left pane. If there is a
Not Installed (residual config) option, click on it. This will reveal
all the residual config package in the system.

synaptic package manager

Check the box beside the package and select “Mark for complete
removal”. Click Apply.

synaptic package manager

5) Remove orphaned package

Other than the dependencies files, packages can also become orphaned
when you uninstall an application. To get rid of orphan files, we can
make use of gtkorphan, a graphical frontend for deborphan.

Install gtkorphan or via the terminal:

sudo apt-get install gtkorphan

Go to System-> Administration-> Removed Orphaned package

gtkorphan

It will analyze the system and show all the orphaned package in the
main window. Check those packages that you have no use for and
uninstall them.

6) Keep track of what you have installed

Debfoster creates a dependency files to enable you to keep track of
what you have installed. When you uninstall an application, it will
check for any leave behind dependencies files or orphaned packages and
ask you if you want to remove it.

Install debfoster, or via the terminal,

sudo apt-get install debfoster

Creating the initial keeper file:

sudo debfoster -q

Force the system to conform to the keeper file

sudo debfoster -f

If you have some packages that you never want to uninstall and do not
want debfoster to handle those packages, you can edit the keeper file
and remove those packages from the list.

gksu gedit /var/lib/debfoster/keepers

To see is there is any orphaned package or dependencies files that
need to be removed:

sudo debfoster

7) remove locale files

Unless you have a need to switch to various locales all the time, you
can uninstall the unused locales and free up some amount of the
storage space in your system.

Install localepurge, or via the terminal:

sudo apt-get install localepurge

Once the installation is done, it will remove all locale files from
your system that you have no need for.

localepurge

8) Clean up grub menu (only for those who know what they are doing)

Sometime when you perform an update, you will find that the kernel is
being upgraded to new one while the old one still remain. If you don’t
like to see a long list of entries in your grub menu when you boot up
the computer, here is a simple way to clean up the grub menu.

Go to terminal and type

gksu gedit /boot/grub/menu.lst

Search for the following lines:

grub-menu

Remove the entry that you have no need for. Save and exit.

Rather than editing the menu.lst file which can be a scary task for
newbies, an easier and better way to cleanup the grub menu is via
Startup Manager or SUM in short.

Install SUM or in your terminal:

sudo apt-get install startupmanager

Go to System-> Administration-> Startup-Manager

In the Boot Option tab, under the Default Operating System field, pick
the kernel that you want to use.

startup-manager

Click on the Advanced tab, check the box Limit the number of kernel in
the boot menu. In the Number of kernels to keep field, enter 1

startup manager screenshot

Close the window.

You should see a cleanup grub menu the next time you boot up.

Is there any ways that I have missed out? How do you clean up your
Ubuntu machine?

For more technology news, tips and tricks, subscribe to Make Tech
Easier today.

Popularity: 1% [?]
Share and Enjoy!
StumbleUpon It! Del.icio.us reddit
Posts You Might Also Be Interested

* Time machine For Ubuntu? Try Timevault and Flyback
* Fancy a XP on Your Ubuntu?
* How To Restore Grub In Ubuntu
* Sharing Files Between Ubuntu Host and Virtual Machines
* Share Your Virtualbox VM Across Different OS


43 Comments Received

hyperX
October 7th, 2008 @5:00 am

It’s been long time I’ve not use ubuntu for my assignments. It’s about
time to switch back. ^^
8 Ways to Maintain a Clean, Lean Ubuntu Machine - Make Tech Easier «
Wolf’s Geek Blog
October 7th, 2008 @5:07 pm

[...] October 7, 2008 8 Ways to Maintain a Clean, Lean Ubuntu Machine
- Make Tech Easier [...]
Vadim P.
October 7th, 2008 @5:41 pm

Should make use of apt: links, eh :)
Jayson
October 7th, 2008 @7:41 pm

These are some great tips - I’ve never even thought to clean things up
but I’m sure the increased productivity would be worth the time
investment.
Anonymous
October 7th, 2008 @7:56 pm

There is a MUCH better way to cleanup the GRUB list. Find the variable
in the menu.lst called “#howmany=all” and change it to #howmany=1 (or
however many kernels you want to show in the list). The in the konsole
run “update grub” and it will auto-clean it for you.
ethana2
October 7th, 2008 @8:15 pm

I expected to see things like “never install packages directly from
source, use checkinstall.”

Seriously, if there’s one thing that’ll clutter stuff up, it’s that,
because you can whip out all your crazy apt tricks, but, surprise!
It’s not even /in/ apt.
suribe
October 7th, 2008 @8:24 pm

best post about ubuntu in a long time, thanks!
Kevin
October 7th, 2008 @8:49 pm

9. Format machine and install Windows Vista on it.
daxi
October 7th, 2008 @8:52 pm

You don’t have to edit the grub config file directly. You can just
install startupmanager via apt-get.
.
October 7th, 2008 @8:54 pm

I’d generally recommend to comment the unnecessary grub entries out,
not to delete them. You can never know.
torpor
October 7th, 2008 @9:05 pm

Here’s another great tool, dpigs:

sudo apt-get install debian-goodies
dpigs -N 10

^^ will show you the top 10 most bloated packages installed on your
system. Awesome way to start trimming the fat..
Links Flickring Into Life | Programmer's Log
October 7th, 2008 @9:26 pm

[...] 8 Ways to Maintain a Clean, Lean Ubuntu Machine Some useful
pointers in maintaining your Linux machine. [...]
Clustertim
October 7th, 2008 @10:32 pm

Wow that was too cool.

http://www.privacy.es.tc
Alex Stan
October 7th, 2008 @10:52 pm

May I suggest Start-Up Manager for the grub section. It’s a gui
utility for editing the menu.lst file. Just do an apt-get install
startup manager. I also suggest keeping only 2 kernels, using that
automatic option.
Chris Rio’s Blogtacularium » Blog Archive » Links of the day
October 7th, 2008 @11:22 pm

[...] Link [...]
Feduntu
October 8th, 2008 @3:12 am

Paulo

unread,
Oct 30, 2008, 2:48:48 PM10/30/08
to Linux-Sur
ACTUALIZAR UBUNTU INSTALAR NUEVA VERSIÓN

desde la terminal: do-release-upgrade
modo gráfico: vamos al update manager (en sistema) y le damos a
instalar nueva versión.

santi

unread,
Oct 31, 2008, 3:48:37 AM10/31/08
to linu...@googlegroups.com

Para continuar con la conversación anterior sacar el debate sobre actualizar o instalar desde cero. En m caso soy de los que parto desde 0, eso si, guardando todos los datos (imágenes, videos, carpetas y mensajes de correo y configuración web) para luego volverlos a recuperar.

Como segundo punto decir que ya he probado "la cabra iberica" y decir que estoy completamente satisfecho con ella. En cuanto a novedades no se ven tanto a nivel externo pero si en pequeños detalles (aquellos "botoncitos" añadidos que se van viendo durante la ejecución de problemas habituales). Si acaso, la mayor ventaja que he visto ha sido la de poder crear un "USB de inicio", de esta manera no sólo no se depende de un cd (aunque el primero yo tuve que descargarlo, no se vosotros) sino que además te permite grabar los cambios, cosa que en un CD (a mi por lo menos al no ser CD-RW) no me permitía. Eso si, también te permite especificar la cantidad de espacio que le quieres dedicar a esos cambios (Mínimo 1GB para instalación y a partir de 128MB para cambios, o sin cambios si lo especificas).

El funcionamiento Wifi va sin problemas (creo que es por que viene intregada en el portátil) pero yo más feliz que un ocho y por lo demás descubriendo novedades… Por mi parte os invito a probarlo.

Nos vemos.

--
Visita mi página y descarga lo que te guste

http://picasaweb.google.com/stitoargaiz

Tawky

unread,
Oct 31, 2008, 5:08:06 PM10/31/08
to Linux-Sur
Si os falta algun driver, ¿por que no os lo creais vosotros mismos?

Os dejo un enlace con una pagina que explica sobre el tema.

http://wiki.freaks-unidos.net/linux%20drivers#referencias

Paulo

unread,
Nov 5, 2008, 5:14:41 AM11/5/08
to Linux-Sur
ARREGLAR EL SERVIDOR X (servidor xorg)
sudo dpkg-reconfigure xserver-xorg
o también sudo ln -sf /usr/bin/Xorg /etc/X11/X
gracias Juan

Paulo

unread,
Nov 6, 2008, 4:30:29 PM11/6/08
to Linux-Sur
Consejo para particionar el disco duro. INSTALAR LINUX

Si sólo vas a tener 4 particiones en tu disco duro ponlas todas
primarias, (sda1, sda2,sda3 y sda4)de tener a partir de 5 tienes que
crear una partición contenedor (ya que la bios solo acepta hasta
cuatra particiones) (sda5, sda6, etc)

Recomendado:
LAS CUATRO PARTICIONES EN PRIMARIA RECORDAD
1. sda1: (/) (reiser) (partición primaria)Sistema Operativo Linux
(este tiene que llevar la barra /). Se recomienda reiser porque es más
rápida para encontrar muchos archivos pequeños, debido a su sistema de
algoritmos matemáticos.

2. sda2: (home) (ext3) (partición primaria)Aqui pones todos los
usuarios asi si reinstalas el sistema o instalas otra versión
conservaras todas las configuraciones

3. sda3: (fat32-ntfs)(partición primaria) Haz una partición de
intercambio por si instalas un Windows (por si quieres tener un
Windows virtualizado u otras historias)
4. sda4: (swap) (partición primaria) (doble de los gigas de memoria
ram que tenga tu ordenador) o tb llamada área de intercambio.

-
***************************************************************************************-
hda: hard disc a (primary)
sda: sccsi ("escasi") disk a (primary)

-
***************************************************************************************-
Nombre del Equipo: pepito 0 Game Over (rara veces aparece)
Nombre de la Sesión (usuario): (crear siempre al menos dos) pepito 1
iluminación
Cual es tu nombre: pepito 2 amor
-
***************************************************************************************-
Aparte de crear dos usuarios puedes crear una carpeta en el raíz
con acceso a todos (permisos) (aunque Kubuntu trae una carpeta pública
y otra privada encriptada)

/p
-
***************************************************************************************-

Paulo

unread,
Nov 14, 2008, 1:25:15 PM11/14/08
to Linux-Sur
EL NÚCLEO (NUCLEO) Y EL KERNEL
http://es.wikipedia.org/wiki/N%C3%BAcleo_monol%C3%ADtico
Estos sistemas tienen un núcleo grande y complejo, que engloba todos
los servicios del sistema. Está programado de forma no modular, y
tiene un rendimiento mayor que un micronúcleo. Sin embargo, cualquier
cambio a realizar en cualquier servicio requiere la recompilación del
núcleo y el reinicio del sistema para aplicar los nuevos cambios.
Hay diversas ramificaciones de este diseño, que se han ido amoldando a
nuevas necesidades. Podemos citar el sistema de módulos ejecutables en
tiempo de ejecución, que le brinda al modelo de núcleo monolítico
algunas de las ventajas de un micronúcleo. Dichos módulos pueden ser
compilados, modificados, cargados y descargados en tiempo de
ejecución, de manera similar a los servicios de un micronúcleo,


pero con la diferencia de que se ejecutan en el espacio de memoria del
núcleo mismo (anillo 0). De esta forma, un bloqueo del módulo, es
probable que bloquee todo el núcleo. Además, el módulo pasa a formar
un todo con el núcleo, usando la API del mismo, y no se emplea un
sistema de mensajes como en los micronúcleos. Este es el esquema usado
por, entre otros, GNU/Linux, FreeBSD y varios derivados de UNIX



Esto les ha hecho evolucionar y crecer hasta convertirlos en programas
grandes y complejos formados por muchas funciones situadas todas ellas
en un mismo nivel. Ejemplos claros de este tipo de sistemas son MS-DOS
y UNIX. Ambos comenzaron siendo pequeños sistemas operativos, que
fueron haciéndose cada vez más grandes debido a la gran popularidad
que adquirieron.
El problema que plantean este tipo de sistemas radica en lo complicado
que es modificar el sistema operativo para añadir nuevas
funcionalidades y servicios. En efecto, añadir una nueva
característica implica la modificación de un gran programa, compuesto
por miles de líneas de código fuente y funciones, cada una de las
cuales puede invocar a otras cuando así lo requiera. Además en este
tipo de sistemas no se sigue el principio de ocultación de la
información. Para solucionar este problema es necesario dotar de
cierta estructura al sistema operativo.
La alternativa es tener una estructura de micronúcleo,



Un sistema operativo con núcleo monolítico concentra todas las
funcionalidades posibles (planificación, sistema de archivos, redes,
controladores de dispositivos, gestión de memoria, etc) dentro de un
gran programa. El mismo puede tener un tamaño considerable, y deberá
ser recompilado por completo al añadir una nueva funcionalidad.
Un error en una rutina puede propagarse a todo el núcleo.
En este tipo de sistemas, todas las funciones que ofrece el sistema
operativo se ejecutan en modo supervisor.

Ejemplos de núcleos monolíticos [editar]
Núcleos tipo Unix
Linux
Syllable
Unix
BSD
FreeBSD
NetBSD
OpenBSD
Solaris
AIX
DOS
DR-DOS
MS-DOS
Sistemas operativos Microsoft Windows 9x (95, 98, 98SE, Me)
Núcleos del Mac OS hasta Mac OS 8.6
OpenVMS
XTS-400

-******************************************************-
El Micronúcleo
http://es.wikipedia.org/wiki/Micron%C3%BAcleo

micronúcleo, tuvo una gran relevancia académica durante los años
ochenta y principios de los noventa, dentro de lo que se denominó self
healing computing, esto es, sistemas independientes que fuesen capaces
de superar por si mismos errores de software o hardware.
Por otro lado, sus principales dificultades son la complejidad en la
sincronización de todos los módulos que componen el micronúcleo
Sus detractores le achacan, fundamentalmente, mayor complejidad en el
código, menor rendimiento, o limitaciones en diversas funciones
Algunos ejemplos de sistemas operativos con micronúcleo:
AmigaOS
Minix
Hurd
NeXTSTEP (algunos lo consideran un núcleo híbrido)
L4
Netkernel
Amoeba
RaOS
RadiOS
Chorus
QNX
SO3
SymbOS

-****************************************************************_
http://es.wikipedia.org/wiki/N%C3%BAcleo_h%C3%ADbrido
Núcleo híbrido

Los núcleos híbridos fundamentalmente son micronúcleos que tienen algo
de código «no esencial», en espacio de núcleo para que éste se ejecute
más rápido de lo que lo haría si estuviera en espacio de usuario.
Éste fue un compromiso que muchos desarrolladores de los primeros
sistemas operativos, con arquitectura basada en micronúcleo,
la arquitectura basada en micronúcleo, adoptaron antes que se
demostrara que los micronúcleos pueden tener muy buen rendimiento. La
mayoría de sistemas operativos modernos pertenecen a esta categoría,
siendo el más popular Microsoft Windows. XNU, el núcleo de Mac OS X,


pertenecen a esta categoría, siendo el más popular Microsoft Windows.
XNU, el núcleo de Mac OS X, también es un micronúcleo modificado,
debido a la inclusión de código del núcleo de FreeBSD en el núcleo
basado en Mach. DragonFlyBSD es el primer sistema BSD que adopta una
arquitectura de núcleo híbrido sin basarse en Mach.
Se tiende a confundir el término núcleo híbrido con los núcleos
monolíticos que pueden cargar módulos después del arranque, lo que es
un error. El núcleo híbrido implica que el núcleo en cuestión usa
conceptos de arquitectura o mecanismos tanto del diseño monolítico
como del micronúcleo, específicamente el paso de mensajes y la
migración de código no esencial hacia el espacio de usuario, pero
manteniendo cierto código no esencial en el propio núcleo por razones
de rendimiento.
_*********************************************************_
sunOS 5 es el núcleo modular de Open Solaris, no hay que confundirlo
con Sun OS, que es un sistema operativo en desuso de Sun (ahora
llamado Solaris)

La diferencia entre el núcleo de solaris (sunOS) y el núcleo de GNU/
Linux (Linux) es que el primero esta más desarrollado y tiene más
elementos y herramientas de gestión

http://es.wikipedia.org/wiki/Imagen:Unix_history-simple.svg



http://es.wikipedia.org/wiki/Solaris_Operating_Environment



Open Solaris ofrece
Solaris es un sistema operativo de tipo Unix desarrollado por Sun
Microsystems desde 1992 como sucesor de SunOS.
Aunque Solaris fue desarrollado como software privativo, la mayor
parte de su código se ha liberado como proyecto de software libre
denominado OpenSolaris. Solaris es conocido por su escalabilidad,
especialmente en sistemas SPARC, y por ser origen de innovadoras
tecnologías, como DTrace y ZFS.

Entornos de escritorio [editar]
El primer entorno de escritorio para Solaris fue OpenWindows. Fue
reemplazado por CDE en la versión Solaris 2.5. El escritorio Java
Desktop System, basado en GNOME, se incluye por defecto con Solaris
10.
OpenSolaris [editar]
Artículo principal: OpenSolaris
El código fuente de Solaris (con unas pocas excepciones)[2] ha sido
liberado bajo la licencia CDDL (Licencia Común de Desarrollo y
Distribución) como un proyecto de software libre bajo el nombre
OpenSolaris.
La licencia CDDL ha sido aprobada por la Open Source Initiative (OSI)
como una licencia open source[3] y por la FSF como una licencia de
software libre (aunque incompatible con la popular licencia GPL[4] ).
La base de OpenSolaris fue alimentada el 14 de junio de 2005 a partir
de la entonces actual base de desarrollo de código de Solaris. Es
posible descargar y licenciar versiones tanto binarias como en forma
de código fuente sin coste alguno. Además, se ha añadido al proyecto
Open Solaris código para características venideras como soporte Xen.
Sun ha anunciado que las versiones futuras de Solaris se derivarán a
partir de OpenSolaris.

Arquitecturas soportadas [editar]
Solaris usa una base de código común para las arquitecturas que
soporta: SPARC y x86 (incluyendo AMD64/EM64T). También fue portado a
la arquitectura PowerPC (en plataforma PReP) en la versión 2.5.1, pero
el porte fue cancelado casi tan pronto como fue liberado. En un tiempo
se planeó soporte para el Itanium pero nunca se llevó al mercado.[1]
Sun también tiene planes de implementar ABIs de Linux en Solaris 10,
permitiendo la ejecución de código objeto Linux de forma nativa en la
plataforma x86.
Solaris tiene una reputación de ser muy adecuado para el
multiprocesamiento simétrico (SMP), soportando un gran número de CPUs.
También ha incluido soporte para aplicaciones de 64 bits SPARC desde
Solaris 7. Históricamente Solaris ha estado firmemente integrado con
la plataforma hardware de Sun, SPARC, con la cual fue diseñado y
promocionado como un paquete combinado. Esto proporcionaba
frecuentemente unos sistemas más fiables pero con un coste más elevado
que el del hardware de PC. De todas formas, también ha soportado
sistemas x86 desde la versión Solaris 2.1 y la última versión, Solaris
10, ha sido diseñada con AMD64 en mente, permitiendo a Sun capitalizar
en la disponibilidad de CPUs de 64 bits commodities basadas en la
arquitectura AMD64. Sun ha promocionado intensamente Solaris con sus
estaciones de trabajo de nivel de entrada basadas en AMD64, así como
con servidores que en 2006 varían desde modelos dual-core hasta
modelos a 16 cores.
Predictive Self-Healing[15] [editar]
Sun ha insertado en el núcleo del sistema operativo solaris un sistema
denominado "Tecnología preventiva de auto recuperación" (PSH,
Predictive Self-Healing). Con esta tecnología se reducen los riesgos y
aumenta la disponibilidad del equipo, además PSH permite tomar medidas
(diagnosticar, aislar, y recuperar las fallas existentes en los
dispositivos de E/S o zonas en la memoria) para reducir daños por
futuros peligros que puedan causar el caos en los sistemas y como
resultado reducir los tiempos de caída, lo cual significa ahorrar
tiempo y dinero.
Ventajas de las características del PSH del sistema operativo
Disponibilidad de servicio y sistema mejorado a través de un
diagnostico y aislamiento de los componentes defectuosos.
Diagnostico automático y reinicio de componentes de hardware y
software en milésimas de segundo.
Administración simplificada para administrar servicios.
El sistema operativo es un software básico que controla una
computadora, el sistema operativo tiene 3 principales funciones:
coordina y manipula el hardware del ordenador o computadora; (como la
impresora, la memoria, etc.), y gestiona los errores del hardware y la
pérdida de datos;(el teclado, el mouse)

DTrace [editar]
Artículo principal: DTrace (Sun Microsystems)
Denominado también rastreo dinámico, que busca el fondo y llega a la
raíz de los problemas de rendimiento en tiempo real. Dicha herramienta
trabaja utilizando sondas inteligentes del sistema que pueden acceder
a áreas de más lento rendimiento o con cuellos de botella, estas
sondas están dispersados por todo el sistema, que ilumina cada rincón
oscuro del sistema solaris. Y además permite visualizar mejor la
actividad del núcleo y de la aplicación. Y a la vez ofreciendo una
visión operativa y una ganancia operativa no superada aun por otro
sistema operativo.

capacidad de almacenamiento Zfs
ZFS, Zettabyte File System [editar]
Artículo principal: ZFS (sistema de archivos)
Es un nuevo sistema de archivos dinámico del sistema operativo
Solaris. Ofrece una administración sencilla que automatiza y consolida
complicados conceptos de almacenamiento y por otro lado protege todo
los datos con sumas de 64 bits que detectan y corrigen el daño de
datos silenciosos. Es el primer sistema de archivos de 128 bits,
ofrece una capcidad de 16.000 millones de veces superior a la de los
sistemas de 32 o 64 bits, virtualmente es el único sistema de archivos
con capacidad de almacenamiento prácticamente ilimitada.
Process rigths management[17] [editar]
Solaris 10 ofrece una solución para el modelo de usuario "todo o nada"
mediante la integración de minimos privilegios de seguridad
directamente dentro de la base del sistema operativo. Gracias a esta
nueva función, Solaris se mantiene como el único sistema operativo
UNIX que ofrece este modelo de seguridad completamente integrado
dentro de sus componentes del núcleo del sistema operativo, cada
aplicación Solaris tiene una lista cerrada de los privilegios
especificos impuestos por el núcleo, en lugar de un solo privilegio de
raíz todopoderoso.
Adicionalmente cada servicio Solaris ha sido convertido para que
utilice sólo los privilegios mínimos necesarios, lo cual hace aún más
difícil violar el sistema y utilizar los servicios. Los
administradores pueden asignar grupos de privilegios por funciones
para diferentes tipos de administradores y desarrolladores.
Libre de virus por más de 20 años, Solaris incluye la tecnología del
Trusted Tolaris ampliamente utilizada por el gobierno de los Estados
Unidos para garantizar la seguridad de sus sistemas
Sun Update Connection[18] [editar]
Utilizando Solaris 10 los usuarios disponen de un servicio de
actualizaciones que les permitirá estar al día con las innovaciones y
el entorno del nuevo ambiente operativo.
Compatibilidad garantizada[19] [editar]
Se asegura las aplicaciones escritas en versiones previas de Solaris
pueden correr en Solaris 10 extendiendo la cobertura de compatibilidad
hasta la versión de Solaris 2.6 la cual es una garantía sin
precedentes en más de 7 años de lanzamiento de sistemas operativos en
la industria. Además es capaz de correr la mayoría de las aplicaciones
Gnu/Linux de forma nativa.


Comparativa entre Solaris y Linux
http://opensolaris.org/os/article/2005-10-14_a_comparison_of_solaris__linux__and_freebsd_kernels/
A Comparison of Solaris, Linux, and FreeBSD Kernels
by Max Bruning
October 14, 2005
I spend most of my time teaching classes on Solaris internals, device
drivers, and kernel crash dump analysis and debugging. When explaining
to classes how various subsystems are implemented in Solaris, students
often ask, "How does it work in Linux?" or, "In FreeBSD, it works like
this, how about Solaris?" This article examines three of the basic
subsystems of the kernel and compares implementation between Solaris
10, Linux 2.6, and FreeBSD 5.3.
The three subsystems examined are scheduling, memory management, and
file system architecture. I chose these subsystems because they are
common to any operating system (not just Unix and Unix-like systems),
and they tend to be the most well-understood components of the
operating system.
This article does not go into in-depth details on any of the
subsystems described. For that, refer to the source code, various
websites, and books on the subject. For specific books, see:
Solaris Internals: Core Kernel Architecture by McDougall and Mauro
(visit Solaris Internals)
The Design and Implementation of the FreeBSD Operating System by
McKusick and Neville-Neil (visit The Design and Implementation of the
FreeBSD Operating System)
Linux Kernel Development by Love (visit Linux Kernel Development, 2nd
Edition) and Understanding the Linux Kernel by Bovet and Cesati (visit
Understanding the Linux Kernel, 2nd Edition)
If you search the Web for Linux, FreeBSD, and Solaris comparisons,
most of the hits discuss old (in some cases, Solaris 2.5, Linux 2.2,
etc.) versions of the OSes. Many of the "facts" are incorrect for the
newest releases, and some were incorrect for the releases they
intended to describe. Of course, most of them also make value
judgments on the merits of the OSes in question, and there is little
information comparing the kernels themselves. The following sites seem
more or less up to date:
"Solaris Vs. Linux" is pretty one-sided for Solaris 10 over Linux.
"Comparing MySQL Performance" on Solaris 10, Linux, FreeBSD, and
others.
"Fast Track to Solaris 10 Adoption" has some comparisons between Linux
and Solaris.
"Solaris 10 Heads for Linux Territory" is not really a comparison, but
reviews Solaris 10.
One of the more interesting aspects of the three OSes is the amount of
similarities between them. Once you get past the different naming
conventions, each OS takes fairly similar paths toward implementing
the different concepts. Each OS supports time-shared scheduling of
threads, demand paging with a not-recently-used page replacement
algorithm, and a virtual file system layer to allow the implementation
of different file system architectures. Ideas that originate in one OS
often find their way into others. For instance, Linux also uses the
concepts behind Solaris's slab memory allocator. Much of the
terminology seen in the FreeBSD source is also present in Solaris.
With Sun's move to open source Solaris, I expect to see much more
cross-fertilization of features. Currently, the LXR project provides a
source cross-reference browser for FreeBSD, Linux, and other Unix-
related OSes, available at fxr.watson.org. It would be great to see
OpenSolaris source added to that site.
Scheduling and Schedulers
The basic unit of scheduling in Solaris is the kthread_t; in FreeBSD,
the thread; and in Linux, the task_struct. Solaris represents each
process as a proc_t, and each thread within the process has a
kthread_t. Linux represents processes (and threads) by task_struct
structures. A single-threaded process in Linux has a single
task_struct. A single-threaded process in Solaris has a proc_t, a
single kthread_t, and a klwp_t. The klwp_t provides a save area for
threads switching between user and kernel modes. A single-threaded
process in FreeBSD has a proc struct, a thread struct, and a ksegrp
struct. The ksegrp is a "kernel scheduling entity group." Effectively,
all three OSes schedule threads, where a thread is a kthread_t in
Solaris, a thread structure in FreeBSD, and a task_struct in Linux.
Scheduling decisions are based on priority. In Linux and FreeBSD, the
lower the priority value, the better. This is an inversion; a value
closer to 0 represents a higher priority. In Solaris, the higher the
value, the higher the priority. Table 1 shows the priority values of
the different OSes.

Table 1. Scheduling Priorities in Solaris, Linux, and FreeBSD
Solaris



Priorities
Scheduling Class

0-59
Time Shared, Interactive, Fixed, Fair Share Scheduler

60-99
System Class

100-159
Real-Time (note real-time higher than system threads)

160-169
Low level Interrupts
Linux
Priorities
Scheduling Class

0-99
System Threads, Real time (SCHED_FIFO, SCHED_RR)

100-139
User priorities (SCHED_NORMAL)
FreeBSD
Priorities
Scheduling Class

0-63
Interrupt

64-127
Top-half Kernel

128-159
Real-time user (system threads are better priority)

160-223
Time-share user

224-255
Idle user
All three OSes favor interactive threads/processes. Interactive
threads run at better priority than compute-bound threads, but tend to
run for shorter time slices. Solaris, FreeBSD, and Linux all use a per-
CPU "runqueue." FreeBSD and Linux use an "active" queue and an
"expired" queue. Threads are scheduled in priority from the active
queue. A thread moves from the active queue to the expired queue when
it uses up its time slice (and possibly at other times to avoid
starvation). When the active queue is empty, the kernel swaps the
active and expired queues. FreeBSD has a third queue for "idle"
threads. Threads run on this queue only when the other two queues are
empty. Solaris uses a "dispatch queue" per CPU. If a thread uses up
its time slice, the kernel gives it a new priority and returns it to
the dispatch queue. The "runqueues" for all three OSes have separate
linked lists of runnable threads for different priorities. (Though
FreeBSD uses one list per four priorities, both Solaris and Linux use
a separate list for each priority.)
Linux and FreeBSD use an arithmetic calculation based on run time
versus sleep time of a thread (as a measure of "interactive-ness") to
arrive at a priority for the thread. Solaris performs a table lookup.
None of the three OSes support "gang scheduling." Rather than schedule
n threads, each OS schedules, in effect, the next thread to run. All
three OSes have mechanisms to take advantage of caching (warm
affinity) and load balancing. For hyperthreaded CPUs, FreeBSD has a
mechanism to help keep threads on the same CPU node (though possibly a
different hyperthread). Solaris has a similar mechanism, but it is
under control of the user and application, and is not restricted to
hyperthreads (called "processor sets" in Solaris and "processor
groups" in FreeBSD).
One of the big differences between Solaris and the other two OSes is
the capability to support multiple "scheduling classes" on the system
at the same time. All three OSes support Posix SCHED_FIFO, SCHED_RR,
and SCHED_OTHER (or SCHED_NORMAL). SCHED_FIFO and SCHED_RR typically
result in "realtime" threads. (Note that Solaris and Linux support
kernel preemption in support of realtime threads.) Solaris has support
for a "fixed priority" class, a "system class" for system threads
(such as page-out threads), an "interactive" class used for threads
running in a windowing environment under control of the X server, and
the Fair Share Scheduler in support of resource management. See
priocntl(1) for information about using the classes, as well as an
overview of the features of each class. See FSS(7) for an overview
specific to the Fair Share Scheduler. The scheduler on FreeBSD is
chosen at compile time, and on Linux the scheduler depends on the
version of Linux.
The ability to add new scheduling classes to the system comes with a
price. Everywhere in the kernel that a scheduling decision can be made
(except for the actual act of choosing the thread to run) involves an
indirect function call into scheduling class-specific code. For
instance, when a thread is going to sleep, it calls scheduling-class-
dependent code that does whatever is necessary for sleeping in the
class. On Linux and FreeBSD, the scheduling code simply does the
needed action. There is no need for an indirect call. The extra layer
means there is slightly more overhead for scheduling on Solaris (but
more features).
Memory Management and Paging
In Solaris, every process has an "address space" made up of logical
section divisions called "segments." The segments of a process address
space are viewable via pmap(1). Solaris divides the memory management
code and data structures into platform-independent and platform-
specific parts. The platform-specific portions of memory management is
in the HAT, or hardware address translation, layer. FreeBSD describes
its process address space by a vmspace, divided into logical sections
called regions. Hardware-dependent portions are in the
"pmap" (physical map) module and "vmap" routines handle hardware-
independent portions and data structures. Linux uses a memory
descriptor to divides the process address space into logical sections
called "memory areas" to describe process address space. Linux also
has a pmap command to examine process address space.
Linux divides machine-dependent layers from machine-independent layers
at a much higher level in the software. On Solaris and FreeBSD, much
of the code dealing with, for instance, page fault handling is machine-
independent. On Linux, the code to handle page faults is pretty much
machine-dependent from the beginning of the fault handling. A
consequence of this is that Linux can handle much of the paging code
more quickly because there is less data abstraction (layering) in the
code. However, the cost is that a change in the underlying hardware or
model requires more changes to the code. Solaris and FreeBSD isolate
such changes to the HAT and pmap layers respectively.
Segments, regions, and memory areas are delimited by:
Virtual address of the start of the area.
Their location within an object/file that the segment/region/memory
area maps.
Permissions.
Size of the mapping.
For instance, the text of a program is in a segment/region/memory
area. The mechanisms in the three OSes to manage address spaces are
very similar, but the names of data structures are completely
different. Again, more of the Linux code is machine-dependent than is
true of the other two OSes.
Paging
All three operating systems use a variation of a least recently used
algorithm for page stealing/replacement. All three have a daemon
process/thread to do page replacement. On FreeBSD, the vm_pageout
daemon wakes up periodically and when free memory becomes low. When
available memory goes below some thresholds, vm_pageout runs a routine
(vm_pageout_scan) to scan memory to try to free some pages. The
vm_pageout_scan routine may need to write modified pages
asynchronously to disk before freeing them. There is one of these
daemons regardless of number of CPUs. Solaris also has a pageout
daemon that also runs periodically and in response to low-free-memory
situations. Paging thresholds in Solaris are automatically calibrated
at system startup so that the daemon does not overuse the CPU or flood
the disk with page-out requests. The FreeBSD daemon uses values that,
for the most part, are hard-coded or tunable in order to determine
paging thresholds. Linux also uses an LRU algorithm that is
dynamically tuned while it runs. On Linux, there can be multiple
kswapd daemons, as many as one per CPU. All three OSes use a global
working set policy (as opposed to per process working set).
FreeBSD has several page lists for keeping track of recently used
pages. These track "active," "inactive," "cached," and "free" pages.
Pages move between these linked lists depending on their uses.
Frequently accessed pages will tend to stay on the active list. Data
pages of a process that exits can be immediately placed on the free
list. FreeBSD may swap entire processes out if vm_pageout_scan cannot
keep up with load (for example, if the system is low on memory). If
the memory shortage is severe enough, vm_pageout_scan will kill the
largest process on the system.
Linux also uses different linked lists of pages to facilitate an LRU-
style algorithm. Linux divides physical memory into (possibly multiple
sets of) three "zones:" one for DMA pages, one for normal pages, and
one for dynamically allocated memory. These zones seem to be very much
an implementation detail caused by x86 architectural constraints.
Pages move between "hot," "cold," and "free" lists. Movement between
the lists is very similar to the mechanism on FreeBSD. Frequently
accessed pages will be on the "hot" list. Free pages will be on the
"cold" or "free" list.
Solaris uses a free list, hashed list, and vnode page list to maintain
its variation of an LRU replacement algorithm. Instead of scanning the
vnode or hash page lists (more or less the equivalent of the
"active"/"hot" lists in the FreeBSD/Linux implementations), Solaris
scans all pages uses a "two-handed clock" algorithm as described in
Solaris Internals and elsewhere. The two hands stay a fixed distance
apart. The front hand ages the page by clearing reference bit(s) for
the page. If no process has referenced the page since the front hand
visited the page, the back hand will free the page (first
asynchronously writing the page to disk if it is modified).
All three operating systems take NUMA locality into account during
paging. The I/O buffer cache and the virtual memory page cache is
merged into one system page cache on all three OSes. The system page
cache is used for reads/writes of files as well as mmapped files and
text and data of applications.
File Systems
All three operating systems use a data abstraction layer to hide file
system implementation details from applications. In all three OSes,
you use open, close, read, write, stat, etc. system calls to access
files, regardless of the underlying implementation and organization of
file data. Solaris and FreeBSD call this mechanism VFS ("virtual file
system") and the principle data structure is the vnode, or "virtual
node." Every file being accessed in Solaris or FreeBSD has a vnode
assigned to it. In addition to generic file information, the vnode
contains pointers to file-system-specific information. Linux also uses
a similar mechanism, also called VFS (for "virtual file switch"). In
Linux, the file-system-independent data structure is an inode. This
structure is similar to the vnode on Solaris/FreeBSD. (Note that there
is an inode structure in Solaris/FreeBSD, but this is file-system-
dependent data for UFS file systems). Linux has two different
structures, one for file operations and the other for inode
operations. Solaris and FreeBSD combine these as "vnode operations."
VFS allows the implementation of many file system types on the system.
This means that there is no reason that one of these operating systems
could not access the file systems of the other OSes. Of course, this
requires the relevant file system routines and data structures to be
ported to the VFS of the OS in question. All three OSes allow the
stacking of file systems. Table 2 lists file system types implemented
in each OS, but it does not show all file system types.
Table 2. Partial List of File System Types
Solaris
ufs
Default local file system (based on BSD Fast Filesystem)

nfs
Remote Files

proc
/proc files; see proc(4)

namefs
Name file system; allows opening of doors/streams as files

ctfs
Contract file system used with Service Management Facility

tmpfs
Uses anonymous space (memory/swap) for temporary files

swapfs
Keeps track of anonymous space (data, heap, stack, etc.)

objfs
Keeps track of kernel modules, see objfs(7FS)

devfs
Keeps track of /devices files; see devfs(7FS)
FreeBSD
ufs
Default local file system (ufs2, based on BSD Fast Filesystem)

defvs
Keeps track of /dev files

ext2
Linux ext2 file system (GNU-based)

nfs
Remote files

ntfs
Windows NT file system

smbfs
Samba file system

portalfs
Mount a process onto a directory

kernfs
Files containing various system information
Linux
ext3
Journaling, extent-based file system from ext2

ext2
Extent-based file system

afs
AFS client support for remote file sharing

nfs
Remote files

coda
Another networked file system

procfs
Processes, processors, buses, platform specifics

reiserfs
Journaling file system
Conclusions
Solaris, FreeBSD, and Linux are obviously benefiting from each other.
With Solaris going open source, I expect this to continue at a faster
rate. My impression is that change is most rapid in Linux. The
benefits of this are that new technology has a quick incorporation
into the system. Unfortunately, the documentation (and possibly some
robustness) sometimes lags behind. Linux has many developers, and
sometimes it shows. FreeBSD has been around (in some sense) the
longest of the three systems. Solaris has its basis in a combination
of BSD Unix and AT&T Bell Labs Unix. Solaris uses more data
abstraction layering, and generally could support additional features
quite easily because of this. However, most of the layering in the
kernel is undocumented. Probably, source code access will change this.
A brief example to highlight differences is page fault handling. In
Solaris, when a page fault occurs, the code starts in a platform-
specific trap handler, then calls a generic as_fault() routine. This
routine determines the segment where the fault occurred and calls a
"segment driver" to handle the fault. The segment driver calls into
file system code. The file system code calls into the device driver to
bring in the page. When the page-in is complete, the segment driver
calls the HAT layer to update page table entries (or their
equivalent). On Linux, when a page fault occurs, the kernel calls the
code to handle the fault. You are immediately into platform-specific
code. This means the fault handling code can be quicker in Linux, but
the Linux code may not be as easily extensible or ported.
Kernel visibility and debugging tools are critical to get a correct
understanding of system behavior. Yes, you can read the source code,
but I maintain that you can easily misread the code. Having tools
available to test your hypothesis about how the code works is
invaluable. In this respect, I see Solaris with kmdb, mdb, and DTrace
as a clear winner. I have been "reverse engineering" Solaris for
years. I find that I can usually answer a question by using the tools
faster than I can answer the same question by reading source code.
With Linux, I don't have as much choice for this. FreeBSD allows use
of gdb on kernel crash dumps. gdb can set breakpoints, single step,
and examine and modify data and code. On Linux, this is also possible
once you download and install the tools.
Max Bruning currently teaches and consults on Solaris internals,
device drivers, kernel (as well as application) crash analysis and
debugging, networking internals, and specialized topics. Contact him
at max at bruningsystems dot com or http://mbruning.blogspot.com/.



PORQUE OPENSOLARIS NO ES GPL
LICENCIAS INCOMPATIBLES CON GPL
http://www.fsf.org/licensing/licenses/index_html#GPLIncompatibleLicenses

Original BSD license
(Note: on the preceding link, the original BSD license is listed in
the UCB/LBL section. This license is also sometimes called the “4-
clause BSD license”.)
This is a simple, permissive non-copyleft free software license with a
serious flaw: the “obnoxious BSD advertising clause”. The flaw is not
fatal; that is, it does not render the software non-free. But it does
cause practical problems, including incompatibility with the GNU GPL.
We urge you not to use the original BSD license for software you
write. If you want to use a simple, permissive non-copyleft free
software license, it is much better to use the modified BSD license or
the X11 license. However, there is no reason not to use programs that
have been released under the original BSD license.
Common Development and Distribution License (CDDL)
This is a free software license. It has a copyleft with a scope that's
similar to the one in the Mozilla Public License, which makes it
incompatible with the GNU GPL. This means a module covered by the GPL
and a module covered by the CDDL cannot legally be linked together. We
urge you not to use the CDDL for this reason.
Also unfortunate in the CDDL is its use of the term “intellectual
property”.

Paulo

unread,
Nov 17, 2008, 3:00:33 PM11/17/08
to Linux-Sur
instalar linux en un Apple Mac

http://wiki.debian.org/MacBook#
http://wiki.onmac.net/index.php/Triple_Boot_via_BootCamp#

1. Asegurarse de que tienes arranque desde cd
2. debes instalar boot camp
si tienes actualizado leopard a la ultima versión desde alli dile a
leopard que arranca bootcamp al inicar equipo

cuando este en la pantalla de la manzana pulsa la tecla c
y arrancara desde el cd que en tu caso el disco de instalacion de
ubuntu

y ya instalar linux de toda la vida
si quieres redimensionar el disco usa la ultilidad de discos de mac os
x
es muy buena

Paulo

unread,
Nov 17, 2008, 4:02:33 PM11/17/08
to Linux-Sur
Manuales y trucos Linux-Unix cheat sheets - The ultimate collection
http://www.scottklarr.com/topic/115/linux-unix-cheat-sheets-the-ultimate-collection/

Feb 07, 2008 at 6:15 am - 80 Comments

This is a compilation of approx 70 cheat sheets for Linux users. There
are a grip load of commands that Linux users have at hand which can
seem very daunting to a novice. This collection will make Linux just a
little less of a headache to learn.

Suggestion: Look through all of them and then choose the top 5-10 you
think will help you the most. Print them out and then get creative.
You can laminate and hang them on the wall around your desk, or create
a small binder that you always keep in reach. Or you can use them all
for inspiration to create your own master sheet that suites you best.
If you do make your own, put it online and post the link in the
comments - You'll get a lot of free traffic from here!

Paulo

unread,
Nov 21, 2008, 5:49:01 AM11/21/08
to Linux-Sur
formato de imagen hdr (High dynamic range)
http://es.wikipedia.org/wiki/Alto_Rango_Din%C3%A1mico

De Wikipedia, la enciclopedia libre
(Redirigido desde Alto Rango Dinámico)
Saltar a navegación, búsqueda
Fotografía HDR de la Catedral Nacional de Washington.

High Dynamic Range (HDR), aunque el nombre completo de esta tecnología
es "High Dynamic Range Rendering" o HDRR (Renderizado de Alto Rango
Dinámico) es una tecnología de renderizado que imita el funcionamiento
de la pupila en el ojo humano. El ojo humano se adapta de forma
continua y con gran eficacia a las diferentes luminosidades de una
misma escena abriendo o cerrando la pupila mientras se va integrando
toda la información captada en el cerebro. De esta forma este órgano
es capaz de hacer ver de forma clara una escena con zonas con
diferente iluminación. Las máquinas fotográficas no tienen esa
capacidad de adaptación y lo que hacen por medio del fotómetro
(medidor de luz) es tomar una media de las diferentes zonas y realizar
la fotografía con esta de forma que algunas zonas pueden quedar bien
iluminadas pero a costa de que otras queden oscuras y otras demasiado
blancas. Mediante las técnicas de HDR se intenta subsanar este defecto
de la fotografía consiguiendo iluminar correctamente todas sus zonas
aunque contengan "cantidades de luz" muy diferentes

Paulo

unread,
Nov 23, 2008, 8:24:32 AM11/23/08
to Linux-Sur
Los 10 geeks más grandes de la historia
http://linuxhispano.net/portal/noticia/los-10-geeks-m%C3%A1s-grandes-historia

1. Linus Torvalds. Cuando tenía 21 años escribió las primeras
versiones de su clon de Unix en su tiempo libre para poder conectarse
con los servidores de la Universidad de Helsinki en 1991.
2. Steve Wozniak. No sólo diseñó y construyó la primera computadora
de Apple, también escribió el sistema operativo del resto de sus
computadoras hasta principio de los 80s.
3. Tim Berners-Lee. Si no fuera por él, no estarías leyendo este
artículo. Mientras trabajaba en el CERN, Berners-Lee desarrolló los
protocolos básicos de la Web.
4. Seymour Cray. Muchas de sus innovaciones se convirtieron en los
conceptos básicos del diseño de supercomputadoras que se convirtieron
en la espina dorsal de laboratorios Livermore y Los Alamos.
5. Marc Andreessen. Junto con Eric Bina fué el responsable del
primer navegador masivo para la web, Mosaic, del que luego surgió
Netscape Navigator.
6. Grace Hopper. Abandonó una carrera en la Armada para desarrollar
el primer compilador de la historia; también fué pionera en la idea de
que la programación podría hacerse en inglés y no en código máquina.
7. Jack Kilby y Robert Noyce. Inventaron independientemente el
circuito integrado y ganaron por ello muy merecidamente el Premio
Nobel.
8. Alan Turing. Además de salvar quizás millones de vidas con su
equipo de rompe-códigos en Bletchly Park durante la Segunda Guerra
Mundial, se le considera uno de los padres de la ciencia de la
computación moderna.
9. Richard Stallman. Mientras trabajaba en el MIT, Stallman quiso
preservar la cultura hacker de los 70s creando los estándares del
Software Libre y luego el Proyecto GNU, las fundaciones sobre las que
se alza Linux.
10. Paul Allen. Convenció a Bill Gates para que abandonara Harvard
para fundar Microsoft y es considerado el "Steve Wozniak" del gigante
de Redmond.

Artículo original en iTnews Australia, traducido al español por
VivaLinux!.

Paulo

unread,
Nov 23, 2008, 8:34:48 AM11/23/08
to Linux-Sur
7 comandos mortales en Linux
www.iguanalinux.com/gnulinux/7-comandos-mortales-en-linux/
por jorel hace 1 día 20 horas 2 minutos

Si eres nuevo en Linux, es probable que en algún momento te encuentres
en algún foro o una sala de chat, con una persona malintencionada y
poco inteligente que pretenda engañarte para que utilices comandos que
puedan dañar tus archivos o incluso arruinar todo tu sistema
operativo. Para evitar que se presente este peligroso escenario, he
aquí una lista de comandos mortales en Linux que deberian ser
evitados:
19 comentariosdel en: tecnología, software libre karma: 133
etiquetas: linux, shell, seguridad
votos negativos: 6 usuarios: 25 anónimos: 2

* comentarios
* + valorados
* trackbacks
* votos
* del
* µ fisgona
* log

1.
#1 Y la frase mas temida "Kernel Panic!".

[OFFTOPIC]
Como curiosidad freak, un dia compilando no recuerdo qué
programa, entre todas las lineas apareció.

"OMG They're trying to kill Kenny"

"Kenny Killed!"

Si no recuerdo mal, creo que fué utilizando el repositorio
pkgsrc de NetBSD, lo que me pude reir xD
[/OFFTOPIC]
votos: 0, karma: 6
por sh4 hace 1 día 19 horas 59 minutos
2.
#2 linux => relevante
futbol => irrelevante

meneame.net/search.php?q=comandos+linux

Aqui una lista de todos los envios del tema, para que veamos que
utiles y relevantes son los comandos de linux para nuestras vidas.

PD: Frikis !!
votos: 8, karma: -33 + info
por Johan_Liebhart hace 1 día 19 horas 59 minutos
3.
#3 Creo que el primer y el segundo comando son iguales.

Y el de trasladar el home a dev/null no se carga el sistema,
solo te cargas tu usuario...
votos: 0, karma: 6
por barrenera hace 1 día 19 horas 57 minutos
4.
#4 Para comando mortal KILLALL xD
votos: 1, karma: 20 + info
por donkeyg5 hace 1 día 19 horas 55 minutos
5.
#5 Olvidan:
for pid in ` ps -A | cut -c1-5 ` ; do sudo kill -9 $pid ; done

Mata todos los procesos que esten abiertos, con la consecuente
perdida de información es mas molesto que perjudicial pero similar al
4.
votos: 0, karma: 6
por tux65536 hace 1 día 19 horas 53 minutos
6.
#6 Explicación rápida de lo que hace rm -rf / :
Borra (rm), todo lo que se te ponga por delante (-r) y no hagas
preguntas (-f), para la raíz del sistema (/) xD .
votos: 1, karma: 17 + info
por ronko hace 1 día 19 horas 50 minutos
7.
#7 Una puntualizacion.
Ninguno de estos comandos es mortal asi si se emplea como
usuario normal (casi todas las distribuciones te "obligan" a usar
normalmente un usuario sin privilegios de admin)
Otra cosa es si alguien comete la estupidez de entrar en modo
administrador-root-superusuario a pesar de las mil y una impedimentas
que ponen todas las distribuciones.
Si te encuentras estas ordenes en algun foro, blog o similar,
seguro que van precedidas de un "sudo" para volverlas peligrosas.
votos: 1, karma: 16 + info
por litos523 hace 1 día 19 horas 48 minutos
8.
#8 A lo que ha dicho #7 añado:

El primer comando, el rm -Rf / usualmente no llega a borrar
todos los archivos del sistema. Si por algún motivo llega a ejecutarse
dicho comando, es probable que muchos archivos logren sobrecvivir a
él. Con suerte, entre ellos podrían estar los datos de usuario.

¿Cómo es posible?

Muy sencillo, dicho comando borra recursivamente todos los
archivos y directorios del sistema, PERO, como cualquier otro
programa, los borra de uno en uno. Recordemos que en un sistema Linux,
al igual que en cualquier sistema tipo UNIX, TODO se trata como
archivos. Cuando este comando mortal está ejecutándose, en algún
momento empieza a borrar los archivos del directorio /p... » ver todo
el comentario
votos: 3, karma: 38 + info
por pcmaster hace 1 día 19 horas 31 minutos
9.
#9 #8

Yo lo probé con un Live CD.

Hay otra cosa que tener en cuenta.
A parte de tener que ejecutarlo como Root/Sudo, introducir la
contraseña, a la hora de empezar a eliminar archivos empieza por la A

Los archivos personales están en la H (de /home/usario)
normalmente.

Cuando lo ejecutas, a parte de ver muuuchas letras en la
terminal, lo primero que ves es como te desaparecen iconos de las
barras, los programas dejan de funcionar, etc... etc...
Tardaría mucho mucho tiempo antes de llegar a los archivos
personales. Eso si, deja el sistema bastante inservible y requeriría
reinstalación, copia y pega de los archivos vitales o uso de un Live
CD. Pero los datos tardaría mucho en llegar a eliminarlos.

También me he fijado que no logra eliminar muchos archivos
relacionados con el arranque y el Kernel. A pesar de ser SUDO te
muestra un error, no me acuerdo si es un access denied u otra cosa.

Podéis probarlo con cualquier LIVE CD, pero vigilad que no esten
montadas vuestras particiones.
votos: 1, karma: 24 + info
por Shironeko hace 1 día 19 horas 7 minutos
10.
#10 #8, p>h datos del "/home" al aire.

No lo he probado, pero, creo que si que borra el contenido
entero del disco duro.

Los comandos me han parecido una parida excepto este :()
{:|:&};: .

Y para comandos paria: dd if=/dev/zero of=/dev/sda

#9, veloz..
votos: 0, karma: 14
por DSoul hace 1 día 19 horas 4 minutos
11.
#11 #9 Me has quitado de las teclas lo del órden alfabético.
Primero se cepillaría /etc, con lo que se perderían configuraciones y
scripts importantes y seguramente no volvería a arrancar. /home y /mnt
van antes que /proc, por lo que estas también se borrarían. /usr y /
var y poco más se salvarían. Claro que, antes tendrías mucho tiempo de
CTRL-C o resetear.

Y otra cosa, el viejuno :(){:|:&};: no lo cuelga. Solo de ser
responsivo durante unos minutos (lo probé en un Slackware 11).
Eventualmente, toda la memoria se llena, bash comete un segmentation
fault, y todo vuelve de golpe a la normalidad 8-D
votos: 0, karma: 8
por kolme hace 1 día 18 horas 49 minutos
12.
#12 uno de los comandos más inocentes y destructivos es
ejecutar como root chmod -R 777 /
tras ejecutarlo el sistema nos devuelve el prompt como si nada
hubiera pasado.
sin embargo, como se necesita que muchos archivos tengan
determinados permisos, el sistema se vuelve inusable.

restaurar todos los permisos correctos a mano es una tarea tan
complicada que la única solución es reinstalar de nuevo.
votos: 1, karma: 17 + info
por xeper hace 1 día 18 horas 48 minutos
13.
#13 Donde este un "format C:" de toda la vida </modo viejuno>
votos: 0, karma: 14
por alexwing hace 1 día 18 horas 46 minutos
14.
#14 "rm -rf /" lo primero que hace es borrar los comandos del
sistema, asi que aunque hagas ctr+c de todas formas tendrás que
instalar el sistema nuevamente :-P
votos: 0, karma: 6
por perrin hace 1 día 18 horas 18 minutos
15.
#15 En digg, esta noticia tuvo 2036 votos...y aca 18.
Moraleja: "si estás esperando a que una noticia salga en digg, para
poder mandarla a meneame, te darás cuenta que por ahi no funciona".
digg.com/linux_unix/The_7_Deadly_Linux_Commands
votos: 0, karma: 6
por dorthweb hace 1 día 18 horas 14 minutos
16.
#16 #15 lo cual dice que Menéame puede estar perdiendo su
corriente de frikismo informático :-(
votos: 0, karma: 14
por alexwing hace 1 día 12 horas 29 minutos
17.
#17 El más mortal de todos:

user: root
password: *******
votos: 0, karma: 11
por malaliento hace 1 día 38 minutos
18.
#18 #13 unix salió en 1969, no lo se seguro, pero creo que DOS
es de los '80.
votos: 0, karma: 14
por DSoul hace 1 día 37 minutos
19.
#19 Aqui un pequeño tutorial (para novatos) que permite
eliminar todo tipo de virus, troyanos, spyware, DRM, etc. del equipo:
sudo mkdir /media/shit
sudo mount -t ntfs-3g /dev/sda1 /media/shit
sudo rm -rf /media/shit
reiniciais y tan felices. El sistema limpio como el culete de un
niño.

Paulo

unread,
Nov 23, 2008, 9:37:13 AM11/23/08
to Linux-Sur
núcleos 2 Darwin el núcleo abierto de Mac
http://es.wikipedia.org/wiki/GNU-Darwin

GNU-Darwin
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
GNU-Darwin Desarrollador: Michael Love
Modelo de desarrollo: Open source
Núcleo: Darwin
Tipo de núcleo: Micronúcleo
Última versión estable: 1.1 / 2007
Estado actual: En desarrollo
Sitio web: www.gnu-darwin.org

GNU-Darwin es un proyecto iniciado en el año 2000 por el Dr. Michael
Love para crear una distribución de software GNU sobre Darwin (el
núcleo de código abierto de Mac OS X para el cual existen también
distribuciones tanto para PowerPC como para x86).
Véase también [editar]

* Darwin
* OpenDarwin


Su objetivo era crear una distribución de software libre para usuarios
de Apple Computer. Originalmente GNU-Darwin se ejecutaba sobre Mac OS
X, y XServer se desarrolló para permitir a los usuarios de Mac OS X
ejecutar software sin necesidad de portar la interfaz gráfica de las
aplicaciones a Mac OS X.

---------------------------------------------__*
Darwin BSD
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Darwin BSD
Captura de Darwin BSD en un entorno Gnome
Desarrollador: Apple Inc.
Modelo de desarrollo: Open source
Tipo de núcleo: Núcleo híbrido
Licencia: APSL
Última versión estable: 9.1.0 / 15 Noviembre 2007
Sitio web: Apple - Open Source


Darwin es el sistema que subyace en Mac OS X, cuya primera versión
final salió en el 2001 para funcionar en los ordenadores Macintosh.

Integra el micronúcleo Mach y servicios de sistema operativo de tipo
UNIX basados en BSD 4.4 (en particular FreeBSD) que proporcionan una
estabilidad y un rendimiento mayor que el de versiones anteriores de
Mac OS. En realidad, se trata de una evolución del sistema operativo
NEXTSTEP (basado en el núcleo Mach 2.5 y código BSD 4.3) desarrollado
por NeXT en 1989 para correr en los ordenadores NeXT, llamados 'black
boxes', comprado por Apple Computer en diciembre de 1996.

Darwin proporciona al Mac OS X prestaciones modernas, como la memoria
protegida, la multitarea por desalojo o expulsiva, la gestión avanzada
de memoria y el multiproceso simétrico.


Enlaces externos [editar]

* Darwin - Open Source
-------------------------------------------------------------------
____*
el nucleo match
Mach (núcleo)
De Wikipedia, la enciclopedia libre
(Redirigido desde Mach kernel)
Saltar a navegación, búsqueda

Mach es un proyecto de diseño de sistemas operativos iniciado en la
Universidad Carnegie Mellon con el objetivo de desarrollar un
micronúcleo.
Contenido
[ocultar]

* 1 Objetivo
* 2 Historia
* 3 En la Actualidad
* 4 Relaciones con Otros sistemas Operativos
* 5 Véase también

Objetivo [editar]

Mach es un núcleo de sistema operativo desarrollado en la Carnegie-
Mellon University (CMU) para soportar la investigación de sistemas
operativos, principalmente computación distribuida y paralela. El
proyecto en CMU se ejecutó desde 1985 hasta 1994.

Mach se desarrolló con la premisa de que todos los sistemas operativos
modernos comparten una serie de características en común, o son
deseadas si es que no las tienen aún. Éstas incluyen:

* Soporte para múltiples aplicaciones usando multitarea.
* Hilos, los cuales pueden ser pensados como las partes de una
aplicación, o mini-aplicaciones cuando hay multitarea.
* Soporte multi-procesadores, en una máquina única o sobre una
red.
* Comunicaciones interprocesos, enviando mensajes directamente
entre aplicaciones.
* Protección y seguridad de memoria.

Historia [editar]

Por la época, a inicios de la mitad de los '80, varios proyectos
estuvieron intentando resolver uno de estos problemas. Esto
típicamente significó tomar un sistema operativo existente – a menudo
BSD (UNIX)- modificando partes del mismo. Después de cada modificación
el sistema operativo era compilado, la máquina reiniciada, y se
probaba el nuevo cambio. Había una serie de problemas con este
enfoque, incluso los más insignificantes errores causarían que la
máquina entera se colgara.

Mach explora el concepto al que ahora nos referimos como micronúcleo.
En vez de tener todo el código para el sistema operativo en un gran
programa único (llamado núcleo), la mayoría del código estaría ubicado
en programas más pequeños conocidos como servidores, los cuales se
ejecutarían como cualquier otro programa. El trabajo del núcleo se
reduce esencialmente en "ser" el sistema operativo, a mantener los
servidores y programar su acceso al hardware.

En teoría esto significa que los cambios al S.O. requerirían nada más
que una recarga de ese único programa servidor, concepto opuesto a
reconstruir el Sistema Operativo y reiniciar la máquina. Solo trabajar
en el núcleo Mach en sí mismo requeriría un reinicio, y en teoría eso
debería ser un hecho inusual.

Mach no es un sistema operativo en sí mismo, y es bastante inútil sin
un conjunto de servidores (estos servidores no existen). De modo que
para obtener un sistema útil y ejecutándose, los autores de Mach
portaron el Unix BSD al núcleo Mach de forma rápida y simple: en vez
de separar BSD en distintas partes y construir cada una de ellas como
un servidor, simplemente compilaron el núcleo entero en un servidor y
lo ejecutaron. El resultado era conocido como POE.

Con POE ejecutándose (efectivamente) entre las otras aplicaciones, el
rendimiento fue pésimo. Cada llamada de una aplicación de usuario,
digamos para obtener la hora, requería que el mensaje fuera enviado al
núcleo (una operación simple conocida como cambio de contexto), el
cual enviaría el pedido a la librería Unix con otro cambio de contexto
y luego repetir todo de nuevo para la respuesta... Sin embargo, Mach,
a pesar de que no era un fallo propio, era considerado muy poderoso,
pero increíblemente lento.

Durante la década siguiente, el trabajo se orientó a mejorar el
funcionamiento de estos mensajes varias veces, hasta el punto de que
el rendimiento de estos sistemas operativos basados en Mach fuera a
menudo mejor que el de los BSD en los que estaban basados. Sin embargo
por ese tiempo el mundo académico había perdido en gran parte interés
en la investigación de SSOO, y la promesa de Mach's siguió sin
cumplirse.

En la Actualidad [editar]

A finales del siglo XX se ha pensado que el Mach asumiría lentamente
el control del universo entero de sistemas operativos, pero esto no ha
sucedido. Quizás la razón más grande del fracaso de Mach puede ser la
"holgazanería": a todos les parecía que era el trabajo de otro
entregar la biblioteca basada en el SO, y no lo hizo nadie. El
esfuerzo más grande hasta la fecha es GNU Hurd, pero GNU Hurd está
ahora alrededor de una década de atraso. Varios sistemas operativos
propietarios han sido más acertados, incluyendo QNX que parece cumplir
todas las promesas de Mach's.

El trabajo sobre Mach se llevó durante varios años en la CMU, para
quedar finalmente inactivo cuando muchos de los desarrolladores
dejaron la academia para trabajar en la industria. El Mach fue
brevemente revivido en la Universidad de Utah a mediados de los 90s y
produjo el Mach 4 (http://www.cs.utah.edu/flux/mach4/html/Mach4-
proj.html) que tenía mejoras significativas, antes de otra vez
volverse inactivo.

Mientras tanto varios vendedores tomaron enfoques prácticos para usar
Mach. La capa del BSD (y otras) fue ejecutada directamente dentro del
núcleo (lo que evita así intercambios de contexto) lo que dio lugar a
un rendimiento razonable mientras que todavía conservaba las ventajas
del multi-procesamiento y de un modelo de hilos fácil de usar. Sin
embargo incluso estas ventajas se han erosionado tanto como el hecho
de que varios vendedores de Unix que han trabajado para
proporcionarlas en sus propios productos.

Relaciones con Otros sistemas Operativos [editar]

Los sistemas operativos basados en este concepto del Mach fueron OSF/
1, NeXTSTEP, e IBM OS/2 para las máquinas basadas en RS/6000 – ninguno
de los cuales es ya usado ampliamente -. Otros sistemas operativos
querían migrar a esta clase de sistema también, como Pink de Apple,
Workplace OS de IBM y varios más.

Apple seleccionó OPENSTEP para ser la base para el sucesor de su
clásico Mac OS. Se convirtió en API Cocoa Mac OS X. OPENSTEP es de
hecho una versión actualizada de NeXTSTEP, que utilizó el Mach 2.5.
Como tal, la amalgama de Mach/BSD de OPENSTEP es la base para el
sistema operativo Mac OS X de Apple.

El desarrollador líder en el proyecto Mach, Richard F. Rashid, ha
estado trabajando en Microsoft desde 1991 en las varias posiciones a
nivel superior en la división de la investigación de Microsoft,
Microsoft Research. El Windows NT de Microsoft, precursor del Windows
XP actual, comenzó con un modelo basado en un micronúcleo similar al
de Mach. Otro de los desarrolladores originales de Mach, Avie
Tevanian, fue antes jefe de software en NeXT y hasta Mayo del 2006 fue
Director de la Oficina de Tecnología de Software en Apple.

Véase también [editar]

* Unix
* Mac OS X
* BSD
* GNU Mach
-----------------------------------------------------------------:)
GNU Mach
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda

GNU Mach es el micronúcleo oficial del Proyecto GNU. Como cualquier
otro micronúcleo, su función principal es realizar labores mínimas de
administración sobre el hardware para que el grueso del sistema
operativo sea operado desde el espacio del usuario.

En la actualidad el GNU Mach sólo funciona en máquinas de arquitectura
intel de 32 bits (IA32) y su uso más popular es servir de soporte a
Hurd, el proyecto que pretende reemplazar a los núcleo tipo Unix en el
sistema operativo libre GNU. Sin embargo, desde el año 2002 los
esfuerzos de la Fundación del Software Libre se encaminaron hacia la
adopción del OSKit Mach como micronúcleo oficial. Actualmente se
denomina GNU Mach 1.x al antiguo GNU Mach y GNU Mach 2.x a OSKit Mach

Paulo

unread,
Dec 9, 2008, 3:36:47 PM12/9/08
to Linux-Sur
DNI ELECTRÓNICO
http://www.dnielectronico.es/

Servicio de Atención al Ciudadano Teléfono: 900 364 463

Recientemente, se ha detectado el envío de correos electrónicos
fraudulentos, solicitando el envío de datos personales a un número de
fax. Se trata de un fraude que puede afectar a los ciudadanos.
En este sentido, queremos manifestar que el Cuerpo Nacional de Policía
nunca solicita a los ciudadanos que faciliten sus datos personales por
correo electrónico ó fax.
Los datos exclusivamente se solicitan de forma segura en:
https://www.citapreviadnie.es
No responda de forma automática, ni utilice los enlaces incorporados
en correos electrónicos o páginas Web de fuentes no fiables.


«En la web del DNI Electrónico facilitan mucho el proceso de
instalación para que el DNI funcione en Internet Explorer y Firefox
pero dejan huerfanos a los clientes de correo electrónico. Para llenar
ese hueco en SbD hemos documentado cómo configurar Gmail y Thunderbird
para hacer uso del DNI-e».

-
***********************************************************************************************************************-
dni electronico en gmail

http://www.securitybydefault.com/2008/07/gmail-dni-e.html
*

lunes 28 de julio de 2008
Gmail + DNI-E
Recientemente tuve que darme de baja en un servicio que me requería un
correo electrónico para confirmar mi baja.

Enviando el correo electrónico, pensaba en que este tipo de
procedimientos, en pleno 2008, deberían ser mucho mas fiables y que
desde la llegada del DNI-e, no hay demasiadas excusas para no
implantar mecanismos mas seguros. Al hilo de eso y dado que soy
usuario habitual de Gmail, se me pasó por la cabeza que sería genial
poder emplear mi Dni-e directamente en la interface web de Gmail
(hasta ahora estaba usando Thunderbird para el firmado digital). Así
que me puse a ver "el estado del arte" con respecto a firmado S/MIME
en Gmail, al final di con esta extensión que hace justamente lo que yo
buscaba.

La extensión aun está en etapas tempranas de desarrollo y no es
plenamente funcional, en concreto Si puede hacer:

* Firmar digitalmente un correo electrónico
* Cifrar un correo electrónico
* Descifrar un correo electrónico que nos haya llegado

Por contra, se echa y mucho de menos la verificación de firmas
digitales, es decir, si alguien nos envía un correo firmado
digitalmente no sera posible verificar la firma, ni a nivel
certificado digital ni mucho menos comprobando CRLs.

Tal vez en este punto algún que otro lector este pensando en jubilar
sus vetustas claves GPG y pasarse al apasionante mundo de los
certificados digitales, antes de eliminar sus claves ha de saber que,
el dni electrónico, provee dos certificados en el chip, Firma y
Autenticación ¿que significa esto? básicamente que los certificados
digitales NO están preparados par cifrar información, por tanto, con
el estándar PKI en la mano, ningún certificado del DNI-e debería ser
usado para cifrar correos electrónicos. Para el que se haya perdido y
le resulte incongruente la situación, aclarar un par de puntos sobre
certificados digitales, todos ellos contienen una clave publica y otra
privada RSA plenamente funcional "para cualquier cosa" adicionalmente,
cada certificado lleva inscritas sus extensiones que definen su
propósito de uso y es ahí donde se define si un certificado sirve para
firmar digitalmente, para autenticarse o para cifrar información
(entre otras muchas opciones). En el caso del DNI-e, los certificados
sirven para autenticación y firma. Obviamente tu eres libre de extraer
las claves RSA de los certificados y usarlas "a pelo" para lo que te
de la gana, pero estarías violando el estándar PKI

No obstante, si pretendes usar certificados digitales para cifrar y
firmar correos electrónicos, Firefox tiene una extensión que te
permite crear tus propios certificados a medida que deberían funcionar
perfectamente con la extensión S/MIME.

Aclarado este punto, prosigo con un mini how-to usar el dni-e para
firmar digitalmente correos en Gmail.

Dando por hecho que ya tienes configurado el dni-e en tu Firefox
(existen ya muchos tutoriales escritos sobre el tema) esta guía
debería funcionar tanto en Windows como en Linux.

La integración de Gmail S/MIME con Gmail es total, y el uso, de lo mas
sencillo, una vez hayamos abierto el editor de correos para enviar un
correo, podemos observar que aparece a la derecha, un símbolo de
firmado (resaltado con el cuadrito en rojo), y un candado para cifrar.
(las imagenes son 'clicables' para verlas completas)

Simplemente hemos de marcar esa opción para activar el firmado digital
del correo, como consejo, es recomendable activar el uso de "solo
texto" y de esa forma eliminar los tags HTML que pueden provocar
warnings durante el procesado del correo. Una vez marcada esa casilla
y escrito el texto, simplemente pulsamos enviar.

Al hacer esto, nos aparecerá una ventana indicando con cual de los dos
certificados del DNI-e queremos firmar el correo, como hemos dicho
antes, PKI en la mano, deberemos seleccionar el certificado de firma y
no el de autenticación.

En esta ventana, habremos de introducir el PIN de nuestro DNI-e.

Si todo ha ido bien, nos aparecerá otra ventana que nos pedirá
confirmación para el proceso de firmado

Una vez aceptada la ventana, se lanza el proceso de envío, que, en
este caso, se hace mediante la interface SMTP de Gmail, por lo que nos
pide que introduzcamos nuestra contraseña (la misma que para acceder
via web a Gmail)


Si la petición de envío ha ido bien, veremos en la parte superior de
Gmail un mensaje indicando que nuestro correo electrónico ha sido
firmado y enviado


Espero que el tutorial os haya resultado útil y, si sois usuarios de
Gmail, no tenéis excusa para no agregar a nuestro bot
Publicado por Yago Jesus en 2:03
Etiquetas: dni electronico, gmail
5 comentarios:

rodri dijo...

Solo quería anotar que no se si el término "extraer las claves
RSA" es muy acertado. Como sabes, la clave privada nunca puede salir
del chip, con lo que hacer una copia de la misma es "imposible". Desde
luego que el DNIe se puede utilizar para cifrar, pero no del modo que
creo que se entiende en el artículo.

Un saludo, y enhorabuena por el articulo
2 de diciembre de 2008 13:53
Dave dijo...

Efectivamente Rodri como bien comentas el dnie es un SSCD, o
dispositivo seguro de creación de firma, que no permite la extracción
de la clave privada.

Lo del cifrado pues posible es técnicamente es posible con
cualquiera de los dos, pero su "key usage" (extensión con el uso que
se le da al certificado ) no lo tiene como permitido en ninguno de los
dos ni en la Declaración de Prácticas de Certificación se contempla
ese uso.
Así pues el uso esperado de los certificados en principio no
contempla el cifrado .

El certificado de firma si se quisiera usar de una manera ortodoxa
para firmar correos estaría bien que contuviera la extensión
(1.3.6.1.5.5.7.3.4).

Aún así la DPC del dnie (http://www.dnie.es/dpc) habla de
documentos firmados en genericos así que aunque no es perfecto podría
usarse (el cert de firma) para firmar mails.

Tu articulo es bueno, claro y cubre un requerimiento muy potente,
muchas gracias por él.
2 de diciembre de 2008 15:17
Yago Jesus dijo...

Ciertamente debí haber aclarado que tu puedes extraer la clave RSA
publica de los certificados y usarla 'como quieras'. Pensé que se
sobre-entendia. Gracias por los comentarios
2 de diciembre de 2008 16:32
==Mangurrian== dijo...

Hola Yago,

Felicidades por tu sitio, me encanta.

Una pregunta tonta.... puede aplicarse al certificado digital o
solo es aplicable al dni-e?

Muchas gracias...
3 de diciembre de 2008 12:23
Yago Jesus dijo...

Hola ==Mangurrian==, Si, la extensión es genérica para cualquier
certificado digital (que permita firma y/o cifrado), de hecho, yo la
empleo con certificados propios. También es indistinto que el
certificado esté o no en una smartcard. Gracias por el comentario
-
*****************************************************************************************************_
extensión para gmail usando firefox Gmail S/MIME 0.3.7
https://addons.mozilla.org/en-US/firefox/addon/592
Gmail S/MIME 0.3.7

-
***********************************************************************************************************************-
dni electronico en thunderbird
http://www.securitybydefault.com/2008/12/thunderbird-dni-e.html

lunes 1 de diciembre de 2008
Thunderbird + DNI-E
Ya había escrito sobre como configurar Gmail y el DNI electrónico,
ahora le toca a Thunderbird (para todos aquellos que aun no están en
'la nube').

El proceso es casi idéntico tanto para Linux como Windows, solo hay un
paso que difiere a la hora de buscar el modulo PKCS#11 (el driver del
DNI).

Al igual que con el post sobre Gmail, asumo que ya tienes el DNI
digital configurado en tu PC y te funciona en Firefox y/o Explorer.

Sin mas preámbulos, empezamos:

Nos situamos en el menú Editar --> Preferencias, una vez ahí, nos
vamos a 'Avanzadas', pinchamos en 'Dispositivos de seguridad'


Una vez ahí, pulsamos en 'Cargar'


Le ponemos como nombre al nuevo modulo 'Dni Digital' y, atención, aquí
viene la diferencia entre Linux y Windows. En linux debemos localizar
la ruta del fichero opensc-pkcs11.so lo podemos localizar con el
comando
$ locate opensc-pkcs11.so
/usr/local/lib/opensc-pkcs11.so

En el caso de Windows el fichero que debemos poner es:
C:\WINDOWS\system32\UsrPkcs11.dll

Si todo ha ido bien se nos pedirá que confirmemos el nuevo modulo que
hemos añadido

Thunderbird nos informa que ya tenemos disponible el DNI


Podemos ver que Thunderbird ya reconoce el DNI, en mi caso aparece
asociado a mi lector de tarjetas que viene integrado en el teclado
Dell (si, el teclado de la película Firewall ;)


Ahora tenemos que asociar un certificado digital a nuestra cuenta de
correo para poder realizar el firmado de correos. Nos situamos en el
menú Editar --> Configuración de las cuentas. Una vez ahí, pinchamos
en 'Seguridad'. Como se puede ver en la parte derecha, podemos asociar
un certificado para realizar la firma de correos, pinchamos en
'Seleccionar'


Dado que el DNI-E pide el PIN para poder acceder a los certificados
digitales, nos solicita que introduzcamos el susodicho PIN.


Si el PIN es correcto, veremos los dos certificados digitales que hay
en el DNI-E, uno para Firma y otro para autenticación. Seleccionamos
el de firma


Ahora Thunderbird nos informa que podemos también asociar un
certificado para recibir correos electrónicos cifrados. Como decía en
mi anterior post sobre Gmail, el DNI no tiene certificados digitales
validos para cifrado, así que pulsamos en 'Cancelar' (de lo contrario
aparecerá un mensaje de error)


Con todos los pasos anteriores ya dados, podemos enviar nuestro primer
correo electrónico que lleve una firma digital en Thunderbird. Para
ello nos vamos a 'Redactar' (como si fuéramos a escribir un mail
normal y corriente)


Para activar el firmado digital del correo, hemos de ir al candado de
'Seguridad' y entre las opciones que aparecen: 'Firmar digitalmente
este mensaje'



Una vez le demos a enviar, se nos pedirá el PIN del Dni para realizar
la firma del correo


Et Voilà ya hemos enviado un mail firmado digitalmente con Thunderbird

Paulo

unread,
Dec 9, 2008, 5:21:30 PM12/9/08
to Linux-Sur
Troyano disfrazado como plugin de Firefox que captura claves bancarias
http://bitelia.com/2008/12/05/troyano-disfrazado-como-plugin-de-firefox-que-captura-claves-bancarias/

Por: Lisandro Berardi
Viernes 05 de Diciembre, 2008 (23:10)

Troyano Recientemente, BitDefender ha advertido desde su sitio a los
usuarios sobre un nuevo troyano que roba todo tipo de contraseñas,
basándose principalmente en claves bancarias. Este troyano se hace
pasar por una extensión de Firefox, por lo que el usuario no advertirá
sobre él de manera sencilla.

Esta amenaza ha sido nombrada como ‘Trojan.PWS.ChromeInkect.A’, que es
ejecutado cada vez que el usuario abre su navegador web. Lo que hace
luego, es tener en cuenta los sitios visitados y los datos enviados,
poniendo énfasis en más de 100 sitios web de banca online, en los que
se incluye varios servicios nacionales, como internacionales (PayPal,
Chase, etc.).

Una vez que detecta que el usuario ha ingresado a alguno de estos
sitios, envía los datos -incluida la contraseña- a un servidor remoto
ubicado en Rusia, lo que podría indicar el origen de esta amenaza.
“Los usuarios deben ser conscientes de los riesgos a los que se
enfrentan si la información confidencial es robada“, ha comentado el
jefe del laboratorio de BitDefender, Viorel Canja.

Tawky

unread,
Dec 13, 2008, 11:23:25 AM12/13/08
to Linux-Sur
Scott Klarr ha publicado en su blog el que según él es el
recopilatorio definitivo de chuletas para sistemas Linux/Unix.

http://www.scottklarr.com/topic/115/linux-unix-cheat-sheets-the-ultimate-collection/

Tawky

unread,
Dec 13, 2008, 11:51:56 AM12/13/08
to Linux-Sur
Usa Google Earth 4.3 en Ubuntu Linux en solo 3 pasos.

Descargarlo: http://dl.google.com/earth/client/branded/redirect/Google_Earth_CZXV.bin

Instalarlo: Abrir una terminal y citar: chmod +x GoogleEarthLinux.bin
sudo ./
GoogleEarthLinux.bin

Ejecutar: clic al botón iniciar y arranca google earth

Paulo

unread,
Dec 18, 2008, 12:56:48 PM12/18/08
to Linux-Sur

tag: Editar Particiones, Crear Particiones, Particionar Grub
A tener en cuenta sólo se pueden tener 4 particiones primarias, y por
cada partición primaria cuatro particiones lógicas (las particiones
primarias son sda1,sda2, sda3 y sda4 siendo sda1=c:\)
las particiones lógicas son a partir de sda5, sda6, sda7...

HAY A QUE PONER PONER LAS PARTICIONES PRIMARIAS JUNTAS Y LA
PARTICIONES LOGICAS JUNTAS O SEGUIDAS TAMBIÉN es decir correlativas.

IMPORTANTE: FORMATEAMOS TODAS LAS PARTICIONES MENOS LAS DE WINDOWS Y
LA SWAP

Suponiendo que tenemos instalado el windows y dos particiones
primarias.
1a partición: (sda1) (ntfs) primaria de 15gb C:\windows
2a partición: (sda2) (ntfs) primaria de 10gb d:\partición con el
sistema de recuperación que viene por defecto en portátiles


-
**************************************************************************************************-
3a partición: (sda3) (reiser) primaria de 20gb con punto de montaje /
(para el SO Linux)

(en caso de tener sólo una partición anteriormente recomendamos hacer
una partición primaria para el gruberar de 64mg, asi después podemos
recuperar el grub o sea sería sda2 con punto de montaje /boot)

4a partición: (sda5) (ext3) lógica de 20gb con punto de montaje /home
(para guardar los usuariarios y configuraciones)

5a partición: (Swap) (area de intercambio) El doble de la memoria Ram
que tenga nuestro ordenador máximo 3gb

6a partición: (sda6) (fat32-ntfs) lógica (para librerías) partición de
información de intercambio
librerias, y usuarios windows y linux

Paulo

unread,
Dec 18, 2008, 1:12:56 PM12/18/08
to Linux-Sur

Tip: Instalar muchas fuentes de texto TrueType (.ttf)
http://ubuntulife.wordpress.com/2008/12/11/tip-instalar-muchas-fuentes-de-texto-truetype-ttf/
Publicado Diciembre 11, 2008 Linux , Ubuntu

Un pequeño truco para instalar fuentes de texto Truetype desde los
repositorios, ejecuta:

$ sudo apt-cache search ttf

Y te aparecera una lista de paquetes con nombres de fuentes truetype
que puedes instalar. Ya las puedes instalar con apt-get install. Por
ejemplo:

$ sudo apt-get install ttf-ancient-fonts

Paulo

unread,
Dec 24, 2008, 5:49:03 PM12/24/08
to Linux-Sur

Obtiene el audio de un SWF de forma rápida con SWFRIP
http://bitelia.com/2008/12/22/obtiene-el-audio-de-un-swf-de-forma-rpida-con-swfrip/

Paulo

unread,
Dec 24, 2008, 7:02:49 PM12/24/08
to Linux-Sur
Los 10 Mandamientos de los nuevos usuarios de Linux

1. No te logearas como root.
Usa “sudo” o “su -” para tareas administrativas.

2. Usaras el administrador de Paquetes en lo posible.
A veces no se puede evitar tener que instalar desde el codigo fuente,
pero cuando usas el administrador de paquetes de tu distribucion para
instalar software, tambien lo puedes usar para actualizarlo y
desinstalarlo. Este es uno de los puntos fuertes de Linux.

3. Seras parte de una comunidad.
Ofrece por voluntad propia lo que has recibido gratuitamente. Ofrece
ayuda y consejos cada vez que puedas.

4. Leeras la documentacion.
Siempre lee la documentacion. Las personas que escribieron el software
intentaron anticipar tus preguntas, y proveen respuestas antes que
preguntes.

5. Utilizaras el Soporte disponible.
Cambiar a Linux puede ser dificil. Puede ser frustrante, pero hay
mucha gente que quiere ayudarte. Dejalos.

6. Buscaras.
En la mayoria de los casos, tu pregunta o tu problema ya ha sido
formulada. Intenta buscar la respuesta, que ya esta publicada antes de
pedirle a alguien que te suministre una nueva.

7. Exploraras.
Linux abre un nuevo mundo de opciones y posibilidades. Prueba con todo
lo que puedas.

8. Usaras la linea de Comando.
Especialmente cuando se trata de configuraciones, usa las herramientas
del GUI para que tu sistema funcione, pero conoce las versiones de las
lineas de comando tambien. En muchos casos, la linea de comando es el
unico modo de usar muchas opciones mas avanzadas.

9. No trataras de recrear Windows.
Linux no trata de ser un clon de Windows. Es diferente. Acepta y
aprecia las diferencias.

10. No te rendiras.
Intentas muchas distribuciones antes de encontrar aquella que mas se
adapte a ti. Aun asi, intenta usar otras distros de vez en cuando.
Ademas, intenta usar diversos programas para que cumplan un proposito
antes de permanecer en lo que usas actualmente. (amarok, xmms, beep,
exaile para musica – azureus, ktorrent, deluge para Bittorrents). Si
no te gustan los predeterminados, recuerda que puedes cambiar
basicamente todo para que se acomode a tu necesidad.

Paulo

unread,
Dec 25, 2008, 3:44:48 AM12/25/08
to Linux-Sur
1.Streaming entre Ubuntu y XBOX 360 - Configurar Sistema/Servidor
2. Eliminar paquetes no necesarios en Ubuntu
3.Convertir texto en pdf es muy facil con el uso de impresoras de PDF
o utilizando openoffice por ejemplo.
4. Conoce el sistema de archivos Ext4


_**********************************************************************_

Streaming entre Ubuntu y XBOX 360 - Configurar Sistema/Servidor
de ekl1U www.tuxapuntes.com
http://www.gizmos.es/wp-content/uploads/2007/08/xbox-360-elite.jpg

Existe una aplicación con la que se puede escuchar música, ver vídeos
e imágenes del disco duro del ordenador a través de la XBOX 360
(también con PS3) en mi televisión. Esta aplicación es Twonky.

Con Twonky podrás:

* Escuchar tu música preferida, tanto archivos de audio como
emisoras de Internet
* Ver tus vídeos favoritos
* Enseñar tu colección de fotos

Todo esto utilizando para ello la XBOX 360 como medio.

Twonky es una aplicación de pago ), aunque después de probarla y ver
sus bondades quizás penséis en comprarla (aunque no haga falta) ;)

Sin mas, paso a explicar como se configura esta aplicación en nuestro
sistema.


* Configurar sistema


1.- Lo primero que tenemos que hacer es crear una carpeta que usaremos
para descomprimir la aplicación.

mkdir twonky


y entramos:

cd twonky


Ahora descargamos la aplicación en cuestion en la carpeta recien
creada, desde su pagina web:

Descargar Twonky. Descargamos la versión "Linux x86 (for manual
installation)".

o usamos la consola:

wget http://www.twonkyvision.com/Download/4.4/twonkymedia-i386-glibc-2.2.5.zip


2.- Descomprimimos en archivo twonkymedia en nuestra carpeta de
usuario, creando para ello, usando la consola.

unzip twonkymedia-i386-glibc-2.2.5.zip


3.- Ejecutamos el servidor:

ALT+F2 y ejecutamos: /home/USUARIO/twonky/twonkymediaserver
(donde usuario es vuestro nombre, de usuario)

Recomiendo añadirlo el inicio de sesión.

Ejemplo:



NOTA: Esta aplicación ocupa 400kb, por lo que no os molestara en
absoluto que este ejecutada o no ;)



* Configurar la aplicación / el servidor


1.- Ejecutamos el archivo twonkymedia-config1.html por lo que lo
arrastraremos de la carpeta al navegador, que es lo más fácil. Este
archivo se encuentra en la carpeta twonky que hemos creado
anteriormente.


NOTA: Despues de cualquiera de las acciones configuradas se recomienda
Guardas los Cambios.


2.- Cambiamos el idioma entrando a "First steps" del menú lateral. En
Languaje seleccionamos "Español" y clicamos en Save Changes.


Una vez cambiado el idioma, todo nos sera más fácil ;)



3.- Ahora compartiremos el contenido. Entramos en Compartir y
seleccionamos las carpetas con el contenido multimedia (música,
vídeos, imágenes).


Agregando tantas carpetas como deseemos a la lista. También
configuramos el tiempo para re escanear las carpetas de la lista.


4.- En la categoría Cliente/Seguridad podemos añadir nombre de usuario
y contraseña a la pagina de configuración de servidor (la que estamos
utilizando actualmente), cosa que yo no he hecho por que nadie va a
tocar esta configuración.


También configuraremos el "Receptor de medios", algo tan fácil como
seleccionar de la lista la XBOX 360, si no aparece en la lista. Se
recomienda tener encendida la XBOX 360 durante todo el proceso, para
que salga reflejada y una vez queramos configurarla.


5.- Por ultimo, y no menos importante, es configurar una emisora de
radio (para escucharla mientras juegas, por ejemplo).

Simplemente tendremos que seleccionar el medio, Shoutcast (creo que
recomendable) o vTuner (ni idea). Seleccionamos también el tipo de
emisoras de la lista que nos interese, según nuestros gustos
musicales.


NOTA: El resto de configuraciones avanzadas simplemente vienen a
cumplimentar las que acabamos de configurar.

fuente: http://belinuxmyfriend.blogspot.com
_**********************************************************************_

_**********************************************************************_
Eliminar paquetes no necesarios en Ubuntu
de ekl1U www.tuxapuntes.com


http://empleo.universia.es/contenidosHTML/emprendedores/cosas_que_debes_saber/images/papelera_visible.jpg



Con el paso del tiempo, van quedando paquetes residuales en nuestros
sistema Linux. Son paquetes viejos, de programas que hemos
desinstalado anteriormente, etc. En definitiva, datos que ocupan sitio
en nuestro disco duro y no son necesarios.

Synaptic es el gestor de paquetes por defecto en Ubuntu. Nos brinda la
posibilidad de eliminar estos paquetes innecesarios de nuestro equipo.
Para ello abrimos Synaptic (Sistema > Administración > Gestor de
Paquetes Synaptic).

En la parte izquierda encontramos una columna. La última opción “No
instalados (Conf. residual)” es la que nos interesa. Pulsamos sobre
ella y nos muestra el listado de paquetes que no necesitamos y ocupan
espacio en nuestro sistema.

Tenemos que marcarlos con la opción “Marcar para eliminar
completamente”. Si son muchos paquetes, en lugar de ir uno a uno,
seleccionalos todos. Y pulsando las teclas Mayusculas+Suprimir los
marcas todos de golpe. (También puedes hacerlo desde el menú Paquete).

Una vez marcados los paquetes, pulsamos sobre el icono “Aplicar” y se
eliminan del sistema. De vez en cuando conviene hacer esto, para
mantener limpio el equipo.
fuente: http://120linux.com
_**********************************************************************_
Convertir texto en pdf es muy facil con el uso de impresoras de PDF o
utilizando openoffice por ejemplo.

Para la operación inversa tenemos este comando:

pdftotext -layout servidor.pdf servidor.c

-layout : Es imprescindible ponerlo, ya que con él guarda la
maquetación del pdf original, si no lo poneis se comera todos los
saltos de linea, tabuladores y seguramente no sea lo que buscais.
servidor.pdf : Archivo pdf = origen
servidor.c : Archivo texto plano o txt = destino

fuente: http://blogricardo.wordpress.com

_**********************************************************************_
Conoce el sistema de archivos Ext4
http://www.maty1206linuxeando.com/?p=2410

Os dejo un interesante post de Diegocg sobre Ext4. Es la primera parte
del mismo, por lo que supongo que en unos días podremos disfrutar de
su buen hacer de nuevo. La versión en inglés de este documento está
disponible aquí.

Ext4 es la evolución del sistema de archivos más utilizado en el mundo
Linux, Ext3. En muchos sentidos Ext4 es una mejora más profunda de
Ext3 que la que Ext3 fue de Ext2. Ext3 consistió básicamente en añadir
journaling, pero Ext4 modifica ciertas estructuras críticas del
sistema de archivos, como las destinadas a almacenar los datos de los
archivos. El resultado es un sistema de archivos con un diseño
mejorado, mayor rendimiento y fiabilidad. Las principales mejoras que
ofrece son:

* Compatibilidad: Cualquier sistema de archivos Ext3 existente
puede migrarse a Ext4 con un sencillo procedimiento de dos comandos a
ejecutar en modo de solo-lectura (procedimiento descrito más
adelante). Es decir, que puedes mejorar el rendimiento, límites de
almacenamiento y características de un sistema de archivos sin
necesidad de reformatear y/o reinstalar tu SO y entorno de software.
Si necesitas las ventajas de Ext4 en un entorno de producción, puedes
actualizar el sistema de archivos. El procedimiento es sencillo y no
pone en riesgo los datos (eso si, se recomienda hacer copia de
seguridad de los datos críticos, incluso si no estás actualizandote el
sistema de archivos :). Ext4 solamente utilizará sus nuevas
estructuras en los nuevos datos que se escriban, los datos antiguos
podrán continuar siendo leidos y modificados cuando sea preciso. Esto
significa, por supuesto, que una vez que se convierte el sistema de
archivos a Ext4, no se puede regresar a Ext3 (aunque hay una
posibilidad de montar un sistema de archivos Ext3 con Ext4 de modo que
no se utilize el nuevo formato de disco, y así poder volver a montarlo
con Ext3, pero así se pierden muchas de las ventajas de Ext4)
* Mayores tamaños del sistema de archivos y de los archivos: Ext3
soporta 16 TB como máximo tamaño del sistema de archivos, y 2 TB de
tamaño máximo de cada archivo. Ext4 añade direccionamiento de bloques
de 48 bits, y tendrá 1 EB de tamaño máximo de sistema de archivos y
16TB de tamaño máximo de archivo. 1EB = 1.048.576 TB (1EB = 1024 PB, 1
PB = 1024 TB, 1 TB = 1024 GB). ¿Por qué 48 bits, y no 64? Hay algunas
limitaciones que necesitan ser solucionadas antes de que Ext4 sea
capaz de soportar 64 bits, y esas limitaciones no han sido tratadas en
Ext4. Las estructuras de datos de Ext4 han sido diseñadas teniendo
esto en mente, de modo que una futura actualización a Ext4
implementará soporte completo de 64 bits. 1EB será suficiente (en
serio :) hasta que llegue ese momento.
* Escalabilidad de subdirectorios: El número máximo de
subdirectorios que puede contener un solo directorio en Ext3 es
32.000. Ext4 rompe ese límite y permite un número ilimitado de
subdirectorios.
* Extents: Los sistemas de archivo tradicionales derivados de
Unix, como Ext3, utilizan un sistema de mapeo de bloques indirecto
para llevar cuenta de cada uno de los bloques correspondientes a los
datos de un archivo. Este sistema es ineficiente para los archivos
grandes, especialmente a la hora de borrarlos o truncarlos, porque el
mapeado mantiene una entrada para cada bloque, y los archivos grandes
tienen muchos bloques -> mapeados gigantescos cuya manipulación es
lenta. Los sistemas de archivo modernos utilizan un sistema distinto
llamado “extents”. Un extent es básicamente un montón de bloques
físicamente contiguis. Básicamente dice: “Los datos están en los
próximos n bloques”. Por ejemplo, a un archivo de 100 MB puede
asignarsele un solo extent de ese tamaño, en vez de tener que crear un
mapeado indirecto para 25.600 bloques (4KB por bloque). Los archivos
gigantescos son divididos en varios extents. Los extents mejoran el
rendimiento y tambien ayudan a reducir la fragmentación, ya que animan
a a utilizar rangos continuos en el disco.
* Asignación multibloque: Cuando Ext3 tiene que escribir nuevos
datos al disco, hay un asignador de bloques que decide qué bloques
libres serán utilizados para escribir esos datos. Pero el asignador de
bloques de Ext3 solo puede asignar un bloque (4KB) de una vez. Esto
significa que si el sistema necesita escribir los 100 MB de datos
mencionados anteriormente, tendrá que llamar al asignador de bloques
25600 (¡y solamente son 100 MB!). No solo esto es muy ineficiente, no
permite al asignador optimizar la política de asignación porque no
puede saber cuantos datos van a asignarse en total, solo sabe lo de un
bloque. Ext4 utiliza un “asignador multibloque” (mballoc), que puede
asignas muchos bloques en una sola llamada, en lugar de un bloque por
llamada, evitando de ese modo sobrecarga. Esto mejora el rendimiento,
y es especialmente útil con delayed allocation y extents. Esta
característica no afecta el formato del disco. Tambien hay que tomar
nota de que el asignador de bloques/inodos de Ext4 tiene muchas otras
mejoras, descritas en detalle en este documento.
* Delayed allocation: Traducible como “asignación retrasada” por
aquellos que tienen poco corazón linguístico (yo tampoco lo tengo muy
grande). Delayed allocation es una mejora de rendimiento (no cambia el
formato del disco) que se encuentra en sistemas de archivos modernos
como XFS, ZFS, btrfs or Reiser 4, no muy expandido por haber estado
considerado hasta hace poco como “peligroso”, y que consiste en
retrasar la asignación de bloques lo más posible, contrariamente a lo
que los sistemas de archivo tradicionales (como Ext3, reiser3, etc)
hacen: asignar los bloques tan pronto como es posible. Por ejemplo, si
un proceso escribe con write() algo, el sistema de archivos asignará
inmediatamente los bloques en los que se colocarán los datos - incluso
si los datos no se están escribiendo al disco en ese mismo momento y
se van a mantener en el cache algún tiempo. Esta aproximación tiene
desventajas. Por ejemplo, cuando un proceso está escribiendo
continuamente datos a un archivo que va creciendo, write()s sucesivos
asignarán bloques para los datos, pero el sistema de archivos no puede
saber si el archivo va a continuar creciendo. Sin embargo, Delayed
Allocation no asigna los bloques inmediatamente cuando el proceso usa
write()s; en vez de eso, retrasa la asignación mientras los datos del
archivo se mantengan en el cache, hasta que se escriban
definitivamente en el disco. Esta aproximación da la oportunidad al
asignador de bloques de optimizar la asignación en situaciones en las
que el antiguo sistema no podía. Delayed allocation encaja muy bien
con las dos anteriormente mencionadas características, extents y
asignación multibloque, porque en muchos tipos de carga, cuando el
archivo se escribe finalmente al disco, puede asignarse en extents
cuya asignación de bloques se ha llevado a cabo con el sistema de
asignación multibloque. El rendimiento es mucho mejor, y la
fragmentación se disminuye en ciertos tipos de carga.
* Fsck rápido: Hacer un fsck es una operación muy lenta,
especialmente el primer paso: comprobar todos los inodos del sistema
de archivos. En Ext4, al final de cada tabla de grupo de inodos se
almacena una lista de inodos no utilizados (junto a un checksum, por
seguridad), de modo que el fsck no los comprobará. El resultado es que
el tiempo de fsck mejora de 2 a 20 veces, dependiendo del número de
inodos utilizados. Hay que notar es fsck, y no Ext4, quien construye
la lista de inodos no utilizados. Esto significa que tendrás que pasar
un fsck para que se construya la lista de inodos no utilizados, y
entonces el próximo fsck será el que sea más rápido (necesitas pasar
un fsck para convertir un sistema de archivos Ext3 a Ext4 de todos
modos). Hay tambien una característica que toma parte en este
aceleramiento del fsck - “flexible block groups” - que tambien acelera
las operaciones normales del sistema de archivos.
* Checksumming del Journal: El journal es la parte más utilizada
del disco, lo cual hace que los bloques que forman parte de él sean
más susceptibles a sufrir un fallo de hardware. Y tratar de recuperar
un log de un journal corrupto puede inducir a una corrupción masiva.
Ext4 hace un checksum del journal para saber si los bloques del
journal están fallando o están corruptos. Pero el checksumming del
journal tiene un bonus: permite convertir el sistema de dos fases de
Ext3 a una sola fase, acelerando las operaciones del sistema de
archivos hasta en un 20% en algunos casos - asi que en este caso se
gana fiabilidad y rendimiento al mismo tiempo.
* Defragmentación en vivo: (Esta característica no está disponible
en 2.6.28, pero probablemente lo estará en la próxima versión). Aunque
que delayed allocation, extents y la asignación multibloque ayudan a
reducir la fragmentación, con el uso los sistemas de archivos pueden
fragmentarse. Por ejemplo: Escribes tres archivos en un mismo
directorio y contiguamente en el disco. Algún día necesitas actualizar
el archivo del medio, pero el archivo actualizado es un poco más
grande, asi que no hay suficiente espacio para él. No queda otra
opción que fragmentar el exceso de datos a otro lugar del disco, que
causara movimiento de brazo extra en el disco y por tanto pérdida de
rendimiento, o tambien puedes asignar para el archivo actualizado
espacio contíguo en otro lugar lejano a los otros dos archivos, lo
cual causará movimiento de brazo si una aplicación necesita leer todos
los archivos de un directorio (por ejemplo, un gestor de archivos
creando miniaturas de un directorio lleno de imágenes). Además, el
sistema de archivos solo puede ocuparse de ciertos tipos de
fragmentación, no puede saber, por ejemplo, que debe mantener todos
los archivos relacionados con la carga del SO juntos, porque no sabe
qué archivos están relacionados con la carga del SO. Para solventar
este problema, Ext4 soporta defragmentación en vivo, y hay una
herramienta llamada e4defrag que puede defragmentar archivos
individuales o todo el sistema de archivos.
* Características relacionadas con los inodos: inodos más grandes,
marcas de tiempo con granularidad de nanosegundos, atributos
extendidos rápidos, reserva de inodos…
o Mayores inodos: Ext3 soporta la configurabilidad de los
tamaños de inodo (mediante el parámetro -I de mkfs), pero el tamaño de
inodo por defecto es de 128 bytes. Ext4 por defecto tendrá 256. Este
aumento es necesario para hacer espacio a varios campos extra (como la
granularidad de nanosegundos o el versionamiento de inodos), y el
tamaño restante del inodo será utilizado para almacenar atributos
extendidos que sean lo suficientemente pequeños como para caber en ese
espacio. Esto hará que el acceso a esos atributos sea mucho más veloz,
lo cual aumenta entre 2 y 7 veces el rendimiento de las aplicaciones
que hacen uso de estos atributos extendidos apodados “rápidos”.
o Reserva de inodos: La reserva de inodos consiste en
reservar varios inodos para futuros archivos cuando se crea un
directorio, confiando que serán utilizados en el futuro. Esto mejora
el rendimiento, porque cuando los nuevos archivos sean creados en ese
directorio podrán usar esos inodos que habían sido reservados. Por
tanto, se mejora el rendimiento de la creación y eliminación de
archivos.
o Marcas de tiempo con granularidad de nanosegundos: Esto
significa que los campos como mtime (modified time) o atime (access
time) podrán usar una resolución de nanosegundos, en vez de la que
hace uso Ext3, que tan solo alcanza una granularidad a nivel de
segundo.
* Preasignación persistente: Esta característica (disponible en
Ext3 en las últimas versiones del kernel, y emulada la por glibc de no
estar disponible) permite a las aplicaciones preasignar espacio de
disco: El sistema de archivos asigna el espacio libre y los bloques
necesarios, pero no hay ningún dato en ellos hasta que la aplicación
verdaderamente se decida a escribirlos en el futuro. Esto es lo que
las aplicaciones P2P hacen cuando preasignan espacio para descargas
que tardarán horas o días en completarse, pero implementado con más
eficiencia por el sistema de archivos y con una API genérica. Tiene
muchos usos: en primer lugar, para evitar que las aplicaciones (como
los P2P) lo hagan ellas mismas ineficientemente llenando un archivo de
ceros. Segundo, para mejorar la fragmentación, ya que los bloques se
asignarán de una sola vez para todo el archivo lo más contiguamente
posible. Tercero, para asegurarse de que las aplicaciones tienen el
espacio que ellas creen que van a necesitar, lo cual es importante
para las aplicaciones tipo RT, ya que sin preasignación el sistema de
archivos podría llenarse en la mitad de una operación importante. Esta
característica está disponible mediante la interfaz de glibc
posix_fallocate().
* Barreras activadas por defecto: Esta opción mejora la integridad
del sistema de archivos a costa de algo de rendimiento (se puede
desactivar con “mount -o barrier=0″, recomendado si estás haciendo
benchmarks). De este artículo de LWN: “Antes de escribir el registro
de commit [en el journaling], el código del sistema de archivos debe
estar totalmente seguro de que todos los datos de las transaciones ha
llegado al disco. Escribir los datos al disco en orden no es
suficiente; los discos hoy en día tienen grandes caches y reordenarán
las operaciones para mejorar el rendimiento. Asi que el sistema de
archivos debe ordenar explicitamente al disco que escriba todos los
datos del journaling antes de escribir los datos del registro de
commit; si el registro de commit se escribe antes, el journal podría
corromperse. El subsistema de E/S del kernel facilita esta tarea a
travñes del uso de barreras; en esencia, una barrera prohibe la
escritura de cualquier bloque tras la barrera, hasta que todos los
bloques que se hayan escrito antes de la barrera estén realmente
escritos en el disco. Utilizando barreras, los sistemas de archivos
pueden estar verdaderamente seguros de que su estructura se mantiene
siempre consistente en el disco”

Cómo usar Ext4:

Esta es la primera versión estable de Ext4, asi que aunque todo el
desarrollo y lanzamiento final de este sistema de archivos se ha
enlentecido y retrasado mucho para garantizar el mismo nivel de
estabilidad que podría esperarse de las actuales implementaciones de
Ext3, no dejan de aplicarse las mismas reglas que se aplican a todo
software “.0″.

Algo muy importante que hay que tener en cuenta es que NO hay soporte
de Grub para Ext4. Bueno, eso no es del todo cierto: Hay soporte, pero
no en las versiones utilizadas por las distros estables. Hay soporte
en la rama de desarrollo de GRUB2, pero solo desde este commit. Hay
paquetes de grub2 disponibles en Ubuntu y distros derivadas de Debian
bajo el nombre “grub-pc”. En la rama estable 0.9x, no hay soporte
oficial, pero hay un proyecto de Google SoC que lo desarrolló, y
Google encuentra parches. Asi que escoje. Las próximas distros basadas
en Linux 2.6.28 probablemente tengan el soporte de un modo u otro. La
opción segura es dejar tu directorio /boot en una partición Ext3.
Tambien necesitas una version de e2fsprogs actualizada.

Migrar a Ext4 es muy sencillo. Hay tres métodos diferentes:

* Creando un sistema de archivos desde cero: La opción más fácil,
recomendada para las nuevas instalaciones. Simplemente actualiza el
paquete e2fsprogs a Ext4, y crea el sistema de archivos normalmente.
* Migrar un sistema de archivos Ext3 existente a Ext4: Tienes que
utilizar la herramienta tune2fs en el sistema de archivos deseado, y
ese sistema de archivosDEBE estar desmontado. Ejecuta:# tune2fs -O
extents,uninit_bg,flex_bg,dir_index /dev/tusistemadearchivosDespues de
ejecutar esto, DEBES pasarle un fsck. Si no lo haces, Ext4 NO
MONTARÁel sistema de archivos. Este fsck es necesario para devolver el
sistema de archivos a un estado consistente. Te dirá que se han
encontrado “checksum errors in the group descriptors”. Es normal, eso
es exactamente lo que tiene que reconstruirse para poder ser montado
con Ext4, asi que no te sorprendas al verlos. Dado que para a
preguntarte cada vez que encuentra uno de esos fallos, siempre
responde que SI. Si no quieres que te pregunte, pásale el parámetro “-
p” a fsck, significa “reparación automática”:

# fsck -pf /dev/tusistemadearchivos

Hay otra cosa que debe mencionarse. Todos los archivos
existentes continuarán utilizando el formato antiguo de mapeo
indirecto para mapear todos los bloques de los datos. La herramienta
de defragmentación en vivo permitirá migrar cada uno de esos archivos
al formato de extents (utilizando una ioctl que ordena al sistema de
archivos que reescriba el archivo en el formato de extents; puede
utilizarse con seguridad mientras se usa el sistema de archivos con
normalidad)
* Montar un sistema de archivos Ext3 con Ext4, sin utilizar, de
entre las nuevas características de Ext4, las que cambian el formato
del disco. Podrás volver a montar el sistema de archivos con Ext3 de
nuevo: Puedes montar un sistema de archivos existente con “mount -t
ext4 /dev/tusistemadearchivos /mnt”. Hacer esto sin haber hecho el
proceso de conversión descrito en el punto de arriba forzará a Ext4 a
no utilizar las características nuevas que utilizan el nuevo formato,
solamente se utilizarán las características que no lo cambian, como
mballoc o delayed allocation. Se podrá, de este modo, volver a montar
el sistema de archivos de nuevo como Ext3. Pero obviamente así te
pierdes muchas de las ventajas de Ext4…


_**********************************************************************_

Paulo

unread,
Dec 25, 2008, 3:59:37 AM12/25/08
to Linux-Sur
la Wii y Linux Desarrollos tecnológicos con la Wii (MIRAR EL VIDEO
PARECE QUE SE SALE DEL MONITOR) Gracias Robin jj
http://www.videojuego.es/desarrollos-tecnologicos-con-la-wii/

Paulo

unread,
Jan 10, 2009, 5:37:59 PM1/10/09
to Linux-Sur
ARCHIVADOR (TAR) Y LOS FORMATOS DE COMPRESIÓN LIBRES (gZip, bZip, etc)
Cual de ellos comprime más, licencias etc


http://es.wikipedia.org/wiki/Tar
http://es.wikipedia.org/wiki/Gzip
http://es.wikipedia.org/wiki/Bzip2


Tar se refiere en Informática a un formato de archivos ampliamente
usado en entornos UNIX, identificados con la extensión tar. Además
hace referencia al programa para la manipulación de archivos que es
estándar en estos entornos. El formato fue diseñado para almacenar
archivos de una forma conveniente en cintas magnéticas y de allí
proviene su nombre, que proviene de "Tape ARchiver" (en inglés:
archivador en cinta). Debido a este origen el formato está preparado
para ser procesado linealmente, no contando con manera de extraer un
miembro sin recorrer todo el archivo hasta encontrarlo.

El programa [editar]

El programa tar, es usado para almacenar archivos y directorios en un
solo archivo
******************************************************************-
gzip
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda


GNU ZIP (gzip)
Extensión de archivo: .gz
Tipo de MIME: application/x-gzip
Desarrollado por: Jean-loup Gailly y Mark Adler, gzip.org
Tipo de formato: Compresión de datos
Estándar(es): RFC 1952

gzip es una abreviatura de GNU ZIP, un software libre GNU que
reemplaza al programa compress de UNIX. gzip fue creado por Jean-loup
Gailly y Mark Adler. Apareció el 31 de octubre de 1992 (versión 0.1).
La versión 1.0 apareció en febrero de 1993.

gzip se basa en el algoritmo Deflate, que es una combinación del LZ77
y la codificación Huffman. Deflate se desarrolló como respuesta a las
patentes que cubrieron LZW y otros algoritmos de compresión y limitaba
el uso del compress.

No se debe confundir gzip con ZIP, el cual no es compatible. gzip no
archiva ficheros, sólo los comprime. Debido a esto a menudo se usa
junto con alguna herramienta para archivar (popularmente tar).

Para hacer más fácil el desarrollo del software que usa compresión, se
creó la biblioteca zlib. Soporta el formato de ficheros gzip y la
compresión deflate. Esta librería se usa mucho porque es pequeña,
eficiente y muy versátil. Gzip y zlib fueron implementadas por Jean-
Loup Gailly y Mark Adler. Desde finales de los noventa se ha producido
algún movimiento de gzip a bzip2 que a menudo produce archivos más
pequeños aunque es más lento.

El formato de compresión zlib, el algoritmo deflate y el formato gzip
fueron estandarizados como RFC 1950, RFC 1951 y RFC 1952
respectivamente.

Normalmente, la extensión de los archivos comprimidos con gzip es .gz.
El software de Unix a menudo se distribuye como ficheros con
extensión .tar.gz o .tgz, llamados tarballs. Son archivos empaquetados
con tar y comprimidos con gzip. Se pueden descomprimir con gzip -d
fichero.tar.gz o desempaquetar con tar -xzf archivo.tar.gz. Hoy en
día, cada vez se distribuye más y más software como fichero.tar.bz2
debido a las ventajas de la compresión bzip2.
******************************************************************-
bzip2 es un programa libre desarrollado bajo licencia BSD que comprime
y descomprime ficheros usando los algoritmos de compresión de Burrows-
Wheeler y de codificación de Huffman. El porcentaje de compresión
alcanzado depende del contenido del fichero a comprimir, pero por lo
general es bastante mejor al de los compresores basados en el
algoritmo LZ77/LZ78 (gzip, compress, WinZip, pkzip,...). Como
contrapartida, bzip2 emplea más memoria y más tiempo en su ejecución.

La sintaxis es parecida a la del programa gzip de GNU
******************************************************************-

Paulo

unread,
Jan 10, 2009, 5:44:55 PM1/10/09
to Linux-Sur
1. SOFTWARE COLABORATIVO
2. ZIMBRA

http://es.wikipedia.org/wiki/Groupware
Software colaborativo o groupware se refiere al conjunto de programas
informáticos que integran el trabajo en un sólo proyecto con muchos
usuarios concurrentes que se encuentran en diversas estaciones de
trabajo, conectadas a través de una red (internet o intranet).
Contenido
[ocultar]

* 1 Historia
* 2 Tipos de colaboración
* 3 Véase también
* 4 Programas informáticos colaborativos
* 5 Enlaces externos

Historia [editar]

En su forma moderna, el concepto ha sido propuesto por el programa
informático de Lotus con la aplicación popular Lotus Notes relacionado
con un servidor Lotus Domino (Lotus Domino Server); algunas revisiones
históricas argumentan que el concepto fue anticipado antes por
sistemas monolíticos como el NLS. El programa informático que utiliza
Wikipedia es un ejemplo de un programa informático colaborativo que
además es software libre por lo que ha sido diseñado sin las
limitaciones de los programas informáticos propietarios en cuanto a
tratos o sin las limitaciones de jerarquización social.
-
*********************************************************************************************************-
http://www.zimbra.com/community/downloads.html
http://es.wikipedia.org/wiki/Zimbra

Zimbra
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda


Zimbra Collaboration Suite

Desarrollador: Zimbra Inc.
Última versión: 5.0.8
S.O.: Linux and Mac OS X (server);
any (client)
Género: Groupware
Licencia: Yahoo Public License 1.1
Sitio Web: http://www.zimbra.com

La Suite de Colaboración Zimbra (Zimbra Collaboration Suite o ZCS) [1]
es un programa informático colaborativo o Groupware creado por Zimbra
Inc., compañía ubicada en San Mateo, California. Posee tanto el
componente de servidor como su respectivo cliente. Dos versiones de
Zimbra están disponibles: una versión soportada por la comunidad de
Software Abierto (Open Source), y una versión soportada comercialmente
(“Zimbra Network”) que contiene algunas mejoras propietarias.

A fines de 2003, en un café de Palo Alto, California, tres amigos
cansados de trabajar en las grandes empresas de Silicon Valley
decidieron crear un programa de correo electrónico. En un fin de
semana armaron un prototipo sencillo. Buscaron la Web en busca de
software gratis y, pocos meses después, habían ensamblado más de 40
bloques de programación gratuita en un sistema básico.

Lo bautizaron Zimbra, en honor a una canción del grupo estadounidense
de rock Talking Heads. Lo pusieron en Internet e invitaron a
desconocidos a ofrecer sugerencias. Un estudiante universitario
estudió el código del programa en busca de errores, trabajando desde
una habitación tan llena de computadoras y accesorios que el aire
acondicionado está encendido aun en invierno.

En febrero, los tres amigos lanzaron su producto a precio de descuento
en un mercado dominado por Microsoft Corp. Al igual que el programa de
correo electrónico Exchange, de Microsoft, Zimbra permite a los
empleados de oficina enviar, recibir, guardar y buscar los miles de
mensajes procesados cada día. Hoy, alrededor de 4 millones de personas
usan Zimbra, incluyendo un hospital de Alabama y 12.000 sucursales de
la firma estadounidense de asesoría de impuestos H&R Block.

Ahora, varias compañías nuevas están aprovechando estos programas,
uniéndolos como piezas de Lego para construir productos comerciales. A
menudo, publican el código fuente del producto en la Web y llaman a
otros voluntarios para mejorarlo. Entonces, venden el software en
Internet, ahorrándose el costo de contar con una gran fuerza de
ventas. El cofundador de Zimbra Satish Dharmaraj, de 39 años, dirige
Zimbra Inc. -la compañía detrás del programa- desde un pequeño
cubículo con una laptop.


El Servidor ZCS hace uso de proyectos Open Source existentes como ser:
Postfix, MySQL, OpenLDAP y Lucene. Expone una interface de
programación de aplicaciones (API) SOAP para toda su funcionalidad y
actúa tanto como un servidor IMAP y POP3.

El Cliente Web ZCS es una interfase de colaboración y administración
completa creada empleando el Toolkit Zimbra Ajax. Soporta correos
electrónicos y calendarios a través de una impresionante interface web
Ajax, que provee tips de sus objetos, ítems arrastrables, y menús que
se expanden al hacer clic derecho. También incluye capacidades de
búsqueda avanzada y permite relacionar fechas (por ejemplo si se
arrastra el cursor sobre “mañana a las 6:00 PM” el sistema desplegara
cualquier cita a esa hora). El calendario compartido en grupo también
esta incluido.

ZCS es compatible con clientes propietarios tales como Microsoft
Outlook, Novell Evolution y Apple Mail. También provee soporte de
sincronización nativo de dos vías para muchos dispositivos móviles
(Nokia E-Series, BlackBerry, Windows Mobile, etc).

Recientemente en Septiembre de 2007, Zimbra fue adquirida por Yahoo!
Inc. por aproximadamente 350 millones de dólares, haciendo un acuerdo
de mantener sus estándares de Software Abierto
-
*********************************************************************************************************-
-
*********************************************************************************************************-
-
*********************************************************************************************************-
-
*********************************************************************************************************-

Paulo

unread,
Jan 10, 2009, 5:46:17 PM1/10/09
to Linux-Sur
IMAP vs POP3
Saltar el menú de navegación e ir al contenido

CONSUMER EROSKI, el diario del consumidor

Buscador
Palabras de búsqueda:

Boletines
Boletines: Introduce tu email para darte de alta o baja en nuestros
boletines: Alta | Baja | Más opciones |

* Inicio
* Alimentación
* Bricolaje
* Economía
* Educación
* M. Ambiente
* Motor
* Estás en este canal: N. Tecnologías
* Salud
* Seguridad alimentaria
* Solidaridad
* Viajes
* Vivienda

(Nuevas tecnologías)

* Internet y telecomunicaciones
* Software
* Hardware
* Imagen y sonido
* Más
o Noticias
o Artículos
o Investigaciones
o Análisis comparativos
o Entrevistas
o Opiniones
o Infografías
o Vídeos

* Estás en la siguiente localización: Portada > Nuevas tecnologías
> Internet y telecomunicaciones

Cambiar de idioma

* Bienvenido (versión en castellano)
* Ongi etorri (euskarazko bertsioa)
* Benvingut (versió en català)
* Benvido (versión en galego)

Otras utilidades

* compartir
* imprimir

tamaño

* Aumenta el tamaño del texto +
* Disminuye el tamaño del texto —

IMAP, el correo más eficiente

Este protocolo, sucesor del POP3, se apoya en el servidor para
sincronizar los mensajes en cualquier terminal

IMAP es el nombre de un protocolo para recibir los correos
electrónicos almacenados en un servidor, en programas instalados en el
ordenador (como Outlook, Windows Mail o Thunderbird). Mark Crispin lo
diseño en 1986 y desde entonces ha evolucionado hasta adquirir su
forma actual. Se postuló hace años como sucesor del "Post Office
Protocol 3" (POP3), pero no ha logrado imponerse. Sin embargo, IMAP
ofrece ventajas prácticas cuando se quiere consultar el correo
electrónico en distintos ordenadores.

* Autor: Por BENYI ARREGOCÉS CARRERE
* Fecha de publicación: 2 de enero de 2009


- Imagen: Rick Audet -

El protocolo para recibir correos electrónicos almacenados en un
servidor más usado es, paradójicamente, el más antiguo, POP3. Gracias
a él, el usuario se conecta con el servidor donde se guarden sus
correos, los descarga y se desconecta del servidor para leerlos. Su
modo de funcionamiento brilla cuando se trata de conexiones
intermitentes a Internet, como por ejemplo cuando se accede vía módem
y sin tarifa plana, o cuando se accede únicamente desde un ordenador.

Sin embargo, en la actualidad la banda ancha con tarifa plana se ha
extendido, de igual forma que el uso de varios terminales (el
ordenador de casa, el del trabajo, el teléfono móvil) para leer los
mensajes de correo electrónico. Así, lo que se antoja interesante es
poder descargarlos a todos estos dispositivos a la vez. Y esto es lo
que permite IMAP.

IMAP permite descargar los correos alojados en un servidor web a
varios dispositivos a la vez y de manera perfectamente sincronizada

Con POP3 se tiene la opción de que los mensajes permanezcan en el
servidor y que, cada vez que se conecta uno de los dispositivos del
usuario, obtenga una copia de los nuevos correos sin eliminar los
originales. El gran inconveniente radica en que si no se ha consultado
el correo en uno de los terminales durante mucho tiempo, el equipo
tardará bastante en descargar los datos desde el servidor, sobre todo
si tienen adjuntos pesados.

Además, en caso de que se quiera comprobar si se ha enviado un
determinado mensaje, no se podrá realizar la comprobación, porque los
correos enviados sólo se guardan en el ordenador emisor del mensaje.
IMAP, conexión permanente y de varios equipos

IMAP soluciona estas situaciones porque se relaciona de forma distinta
con el servidor, que se encarga en este caso de centralizar la
información. El usuario se conecta y actualiza la lista de mensajes,
pero sin descargar ninguno de antemano, sólo las cabeceras; además,
esta tarea se efectúa con rapidez.

El usuario se conecta y actualiza su lista de mensajes, pero sin
descargar ninguno de antemano, sólo las cabeceras

Cuando se abre un correo en particular, se bajan los datos pero éste
se mantiene en el servidor hasta que se decida borrarlo. Esta
dependencia del servidor presenta ventajas para el acceso desde
diversos dispositivos. Cuando se consulta el correo desde otro
ordenador, se accede a la misma bandeja de entrada albergada en el
servidor, sin importar que se haya leído desde otro terminal.

Además, la organización en carpetas se replica exactamente igual en
todos los dispositivos. Por el contrario, en POP3 los mensajes se
clasifican en el terminal del usuario y se debe repetir la tarea de
archivo si se maneja otro ordenador.

Asimismo, esta sincronización puede ayudar a aquellas entidades donde
varias personas gestionan una única dirección de correo electrónico de
nombre genérico, del estilo de "administracion@", puesto que todos
pueden acceder a los contenidos recibidos y enviados (si se selecciona
guardar una copia de los enviados) sin que se pierda ninguno porque
otra persona los haya descargado con anterioridad.

Este estándar se encuentra preparado para que varias personas manden y
reciban mensajes simultáneamente en la misma cuenta, pero cada uno
desde su terminal. Además, así se puede saber si uno en concreto ha
sido leído por otra persona del equipo.
Mayor flexibilidad

Configurar la recepción de mensajes con IMAP ofrece comodidad y
rapidez, como en el POP3, combinado con unas posibilidades de
movilidad que se acercan a las aportadas por los correos web del
estilo de Yahoo! Mail, Hotmail o Gmail. Por ejemplo, el usuario puede
decidir qué mensajes se descargarán para trabajar con ellos sin
conexión a la Red; sólo consultar los clasificados en determinadas
carpetas cuando se accede desde un terminal específico; o incluso no
descargar los adjuntos más pesados para que la consulta sea más
rápida.

Este protocolo permanece conectado en todo momento al servidor, y
la recepción de mensajes se produce de manera casi instantánea, a
diferencia del POP3

Por otro lado, este protocolo permanece conectado en todo momento al
servidor, y la recepción de mensajes se produce de manera casi
instantánea, a diferencia del POP3, donde se debe determinar el lapso
en que el programa de escritorio consultará el servidor para descargar
nuevos correos.

A pesar de las evidentes ventajas de IMAP, lamentablemente hoy en día
hay proveedores de acceso a Internet que no ofrecen este protocolo de
recepción de correos. Optan por el POP3 para las direcciones que
proporcionan a sus clientes. Las razones se encuentran en que así se
ahorran ofrecer el espacio de disco duro necesario para manejar un
correo hoy en día desde un servidor (con POP3 se supone que los
mensajes se descargan al ordenador del usuario) y también evitan la
conexión continua del usuario a su servidor.
Gmail apostó por IMAP

Gmail es el único de los grandes correos web que brinda por defecto la
posibilidad de acceder desde un programa de escritorio a los mensajes
a través de IMAP. Esto permite al usuario librarse de leer la
publicidad textual que caracteriza a este servicio. Además, Google ha
implantado un sistema de etiquetas que se transforma en diferentes
carpetas con este estándar.

Yahoo! Mail también permite este estándar, pero sólo a través del
programa de código libre Zimbra, que adquirió en 2007

Otra de las ventajas de la integración de este protocolo en Gmail
radica en que se simplifica el traslado de mensajes que se hayan
recibido o enviado desde otras cuentas de correo electrónico que se
gestionen con el mismo programa. Sólo con copiar y pegarlos a una de
las carpetas de la dirección IMAP, se guardan en el servidor de Google
con las fechas originales. Yahoo! Mail, que ofrece la posibilidad de
acceder por POP3, también permite este estándar, pero sólo a través
del programa de código libre Zimbra, que adquirió en 2007

Paulo

unread,
Jan 18, 2009, 7:32:41 PM1/18/09
to Linux-Sur
Una de las características de esta nueva versión de Ubuntu es el
soporte automático a varios dispositivos 3G para crear conexiones de
banda ancha móvil.

Cuando leí de las nuevas características de la distribución no le
preste mucha atención a esta nueva característica, lo primero que me
vino a la mente fueron los pequeños modems 3G USB (como estos
http://universocelular.com/2008/08/22/modem-3g-huawei-e226/ ) y nunca
tome en cuenta que mi Nokia N95 funciona como Modem 3G.

Cierto día que quería sincronizar mi Teléfono para usarlo como
almacenamiento masivo y transferir archivos, no me percate que en vez
de seleccionar la opción de “Transferencia de datos ” lo deje en la
opción de “PC Suite” y que se hace el milagro, inmediatamente salio
una ventana donde reconocio el dispositivo como un teléfono Nokia N95
- 3G, posteriormente, reconoció que tengo el servicio por TELCEL y me
pregunto si quería usar ese punto de acceso, le di que si, y eso fue
todo, mando otra ventana donde indicaba que estaba perfectamente
configurado y que ya podía navegar usando mi cuenta de TELCEL. Algo
que ni siquiera paso por mi cabeza hacer por las altas tarifas que
tenemos en México por los servicios 3G.

Lo importante es que ya no tengo que pasarme a Win para usar mi
teléfono como módem, ya que me ha sacado de apuros cuando en el
trabajo o en mi hogar falla la banda ancha de TELMEX.

Posteriormente cuando conectas el teléfono, en el applet manejador de
la red (nm-applet) aparece una nueva seccion “mobile Broadband” Donde
aparece el nombre de “TELCEL” como red disponible.

Ahora si, ya no hay pretexto para no estar conectado a internet desde
Ubuntu via cable, via WIFI, o via celular.
http://www.linuxparasereshumanos.com/2008/12/13/soporte-3g-en-ubuntu-810/

Paulo

unread,
Jan 18, 2009, 7:33:23 PM1/18/09
to Linux-Sur
Ubuntu System Panel, otro menú de inicio
Publicado por Picajoso
Enero 14, 2009

Aunque GNOME y KDE proponen sus propias alternativas de serie en
cuestión de menús de inicio existen otras alternativas que tratan de
poner a nuestra disposición menús eficaces en los que tengamos acceso
a aplicaciones y documentos frecuentes de una forma cómoda.

A mí me gusta especialmente Slab, el menú utilizado en GNOME en
openSUSE, pero habrá que echarle un buen vistazo a Ubuntu System Panel
(USP, no confundir con la empresa de transportes), un nuevo desarrollo
que trata de resolver estos escenarios de la mejor manera posible.
¿Cómo instalarlo en Ubuntu?

De momento USP no está accesible en los repositorios oficiales de
Ubuntu, así que una de las mejores formas de acceder a este menú de
inicio es descargarlo por SVN, lo que entre otras cosas nos garantiza
que siempre tendremos la última versión disponible. Los comandos
necesarios son los siguientes:

sudo apt-get install subversion
svn checkout http://ubuntu-system-panel.googlecode.com/svn/trunk/
ubuntu-system-panel
cd ubuntu-system-panel
./usp_update install fresh

Y si además contáis con una distro de Ubuntu de 64 bits, tendréis que
escribir una sentencia más:

sudo cp /usr/lib/python2.4/site-packages/usp/plugins/_keybind64.so
_keybinder.so

Una vez hecho esto ya lo tendréis instalado, y para sustituir el que
ya tenéis por USB solo faltará eliminar el panel de sistema típico de
GNOME:

killall gnome-panel

Y luego añadir Ubuntu System Panel pinchando con el botón derecho del
ratón en la barra de tareas y seleccionando la opción "Añadir al
panel"

En MakeUseOf lo han probado a fondo y como señalan allí, USP dispone
de algunas características muy interesantes. Una de ellas es la
personalización, ya que existen temas que cambian el aspecto visual
del menú para ajustarse a lo que queremos.

La otra, aún más relevante, es la utilización de plugins para
configurar las funciones presentes en el menú de inicio, que mostrará
estos plugins cuando pinchemos en el botón de inicio. Por ejemplo, la
presencia de una calculadora, marcadores de Firefox o un pequeño
gestor y monitor de recursos.

http://www.muylinux.com/2009/01/14/ubuntu-system-panel-otro-menu-de-inicio/

Paulo

unread,
Jan 18, 2009, 7:34:34 PM1/18/09
to Linux-Sur
http://www.laconsolablog.com/2008/12/29/picard-musica-con-nombre-y-apellido/


Cuantas horas habré perdido frente a la pantalla editando los tags
(etiquetas) de mis músicas, buscando en google y tratando de que se
vea lindo mi reproductor al llegar mis pacientes? No las recuerdo,
pero si recuerdo que encontré este editor gratuito y que para colmo,
se vale de la base de datos mas grande en música: Musicbrainz
musicbrainz

Su nombre es Picard y, si bien al principio se torna un poco complejo
usarlo, con el tiempo he recurrido a el casi a diario, facilitando la
tarea de nombrar adecuadamente, con datos como el nombnre del disco,
año y casi todo lo que queramos de nuestros temas musicales
preferidos.

Al ser multiplataforma podemos contar con él en Windows, Mac y por
supuesto: Linux!

La página de descarga nos provee las versiones correspondientes para
Windows, Mac y el código fuente para compilar en Linux.

Si usamos Ubuntu podemos instalar la versión estable con el clásico:
sudo apt-get install picard

Mandriva:
urpmi picard

Gentoo:
emerge --sync
emerge picard

ArchLinux:
sudo pacman -S picard

OpenSUSE:
1 click-install (elegir la version que usan)

Fedora:
yum install picard

Les dejo la guía rápida con ilustraciones (en inglés, pero fácil)
sobre su uso.
Completa esta lectura con:

* No hay entradas relacionadas hasta el momento

Debian, Fedora, Gentoo, HOWTO's, Instalaciones, Linux, Mandriva,
Musica, Opiniones, Programas, SuSE, Ubuntu, mac, mp3, openSUSE

Si te gustó este post, por favor considera dejar un comentario o
suscribirte al feed y obtener artículos futuros en tu lector de feeds.
Comentarios (8)
Comentario por uno cualquiera en 29/12/2008 @ 8:11 pm

no he probado el picard, cuando tenga tiempo lo haré; pero os
recomiendo el easytag, creo que tambien esta en repos y te deja
rellenar etiquetas de un grupo de archivos a partir de los directorios
en que se encuentran, y viceversa, renombrar el archivo mediante las
etiquetas
Comentario por Frezeeer en 29/12/2008 @ 8:32 pm

Yo si lo he probado y es una autentica maravilla. Amarok lo lleva
tambien incorporado, si le dais a editar “tag information” hay un
boton que pone rellenar con datos del MusicBrainz.
Digno de ver y de usar.
Pingback por Picard: Música con nombre y apellido « Un
Bioinformatiquillo en 30/12/2008 @ 7:14 pm

[...] Enero 2, 2008 in UncategorizedTags: Audio y Vídeo, Ubuntu/Linux
Fuente: LaConsola [...]
Comentario por Avería en 31/12/2008 @ 9:01 pm

Pues no lo conocía, pero en estas últimas semanas estaba poniendo en
orden mi biblioteca musical y creo que me va a venir perfecto.
Pingback por Organiza tu coleccion de musica « Seamos realistas…
pidamos lo imposible en 01/01/2009 @ 8:11 pm

[...] Visto en | Picard, musica con nombre y apellido [...]
Pingback por Picard: Música con nombre y apellido « Un
Bioinformatiquillo en 02/01/2009 @ 9:17 am

[...] Enero 2, 2009 in UncategorizedTags: Audio y Vídeo, Ubuntu/Linux
Fuente: LaConsola [...]
Comentario por Jorge Guerrero en 03/01/2009 @ 10:21 am

Hola, muy buena entrada, no se si tu blog tiene alguna licencia
especial, espero que este bajo la GPL porque me gustaria incluir este
tema en el mio, claro con el link a la entrada general espero me
confirmes lo de la licencia para poder hacer la entrada en el mio que
es: http://geowworld.blogspot.com/
Comentario por pptux en 03/01/2009 @ 8:29 pm

Adelante Jorge. GPL y CC no comercial.

Paulo

unread,
Jan 18, 2009, 7:39:39 PM1/18/09
to Linux-Sur
Gnome y KDE conviviendo: limpieza en los menús
Guillermo Latorre 24 de enero de 2008 6 comentarios

Gnome Menu Extended
GNU/Linux nos permite tener varios sistemas de escritorio diferentes
instalados y funcionando, pero inevitablemente nos encontramos con una
mezcla de opciones y programas de cada entorno en los menús
principales.

Existen aplicaciones precisamente para limpiar automáticamente las
entradas del menú que no corresponden a tu sistema de escritorio
habitual, y dejarlas apartadas y ordenadas de alguna manera. Con Gnome
y KDE instalados a la vez, hay dos programas para aquellos Gnomeros
que han querido probar KDE y para los KDEeros que han querido probar
Gnome.

K Menu Gnome

Gnome Menu Extended es el propio menú normal de Gnome, pero incluye
una carpeta donde se guardan todas las aplicaciones y opciones de KDE.
Se instala fácilmente descargando el paquete para cualquier
distribución: Debian (y Ubuntu), Slackware o directamente el código
fuente para compilarlo. Una vez instalado, se activa yendo a
Preferencias -> Add KDE Menu. Y si quieres recuperar el menú como
estaba, también tiene la opción de restaurarlo.

K Menu Gnome es un menú exactamente igual que el KMenu original, pero
incluye una carpeta donde residen todas las aplicaciones de Gnome, en
sistemas que tienen ambos escritorios instalados. Está disponible para
Debian (y Ubuntu), Slackware, Fedora y el código fuente para
compilarlo en cualquier sistema.

Yo me quedo con mi Gnome, pero con KDE 4.0 instalado para ir
probándolo. Y los menús bien ordenados.
http://www.genbeta.com/2008/01/24-gnome-y-kde-conviviendo-limpieza-en-los-menus

Paulo

unread,
Jan 18, 2009, 7:44:33 PM1/18/09
to Linux-Sur
¡Destruye tu disco duro!
Publicado por Picajoso
Enero 9, 2009

Como señalan nuestros compañeros de MuyComputer, los procesos de
recuperación de discos duros son capaces de restaurar información de
unidades que parecían teóricamente destrozadas, y hay quien sugiere
métodos algo exagerados para hacer inaccesibles esos datos. De hecho,
los consejos incluyen prácticas como la inmersión del disco duro en
ácido o el uso de un taladro sobre las superficies del disco. No
obstante, un simple comando en Linux puede ofrecer igual seguridad.

Algunas empresas dedicadas a la recuperación de datos de discos
dañados físicamente han demostrado que incluso en unidades sometidas
al fuego o a golpes de martillos, caídas y otros golpes aún es posible
recuperar los datos. Eso hace que muchos usuarios teman lo que algún
extraño puede encontrar en discos duros antiguos que ya no utilizan y
que tiran a la basura... o venden de segunda mano.

El software de recuperación de archivos es capaz de lograr tasas de
recuperación muy altas para unidades que incluso hayan sido
formateadas, de modo que hay aplicaciones software que se encargan de
sobreescribir toda la información del disco con ceros y unos de forma
aleatoria de forma que los datos anteriormente presentes queden
totalmente borrados.

Algunos hackers y crackers incluso se dedican a comprar discos duros
usados para luego tratar de extraer información valiosa de dichos
discos con aplicaciones como las citadas, y hay quien sugiere que
meter el disco en ácido o quemarlo debería ser suficiente para
asegurarse un grado de protección muy alto. Sin embargo las utilidades
de sobreescritura son un método mucho más cómodo... y menos exagerado,
por supuesto.

De hecho, esas aplicaciones comerciales pueden ser sustituidas
fácilmente por un sencillo comando en Linux que hace básicamente lo
mismo. Existen Live CDs con este sistema operativo que permiten
realizar una serie de pasadas para poder sobreescribir datos en el
disco duro. Por ejemplo en esta página se explica el proceso con
Knoppix, pero en realidad debería servir cualquier LiveCD, ya que el
comando usado (shred) está incluido por defecto en ellas (o debería).
También es posible hacerlo en Linux con el típico comando dd, que
habría que utilizar de este modo:

dd if=/dev/random of=/dev/sda

Aunque obviamente habría que sustituir /dev/sda por el nombre de
dispositivo correspondiente a nuestro disco duro (puede ser sdb, sdc,
hda, hdb, etc).
Hardware, Software, Trucos, Ubuntu

Si has disfrutado de este post, considera la opción de dejar un
comentario o suscribirte al feed para poder seguirnos desde tu lector
de feeds.
Comentarios
Comentario por Anónimo en Enero 9, 2009 @ 12:18 pm

Muy interesante. Conocía la existencia de herramientas con el mismo
propósito, pero no sabía que se pudiese hacer en GNU/Linux de forma
nativa.
Comentario por nicolas en Enero 9, 2009 @ 12:22 pm

esta muy interesante la nota, y de paso podrian poner un par de
programas para recuperacion de datos de un disco medio muerto, porq
tengo uno q necesito sacarle la info y no da para mandar el disco a
otra persona y q lo vea.
Comentario por niky45 en Enero 9, 2009 @ 2:20 pm

esta wipe, que hace lo mismo pero mas deprisa y con mas pasadas….
aunque yo siempre he tirado de dd, pese a que lo hago para limpiar el
disco (que cuando empiezan a dar problemas, es lo mejor que hay….)
Pingback por ¡Destruye tu disco duro! « CerdaBallo en Enero 9, 2009 @
3:52 pm

[...] ¡Destruye tu disco duro! Para los que tiran un disco
Comentario por Jorge en Enero 9, 2009 @ 4:02 pm

Una de las aplicaciones más conocidas es “Dban”. http://www.dban.org/

Utilizado por el gobierno canadiense para borrado de discos duros.

Está basado en linux y se graba en cd, disquete o memoria flash. Se
arranca el ordenador y a formatear. Se pueden hacer hasta 32 pasadas.

Yo acabo de formatear un disco de 120 gigas sata que quiero vender con
7 pasadas en 6 horas y media.

Saludos.
Comentario por Reoba en Enero 10, 2009 @ 6:10 am

Wow muy buena nota, bastante interesante, yo he sabido que se cobra
muy bien por la recuperacion de discos dañados.

Lo bueno que mi padre es soldador, si algun dia quiero deshacerme de
un disco duro, lo puedo fundir con el soplete(quemador) xD.

http://www.muylinux.com/2009/01/09/%C2%A1destruye-tu-disco-duro/
----------------------------------

Paulo

unread,
Jan 18, 2009, 7:45:11 PM1/18/09
to Linux-Sur
subtitulos súbtitulos
Descargar subtítulos

« Manifestación de informática: 18 de Diciembre | Microsoft, 30 años
después »

¿Cómo descargar subtítulos para las series que hemos descargado usando
ted o cualquier otro método? Pues siguiendo con el proceso de
automatización que comenzamos ayer (Descargar series) hoy vamos a
hablar de SubDownloader, el complemento perfecto para ted.

SubDownloader es una pequeña aplicación que busca subtítulos para tus
películas, series y documentales de la forma más sencilla. El programa
es GPL, y está disponible para Windows, Mac OS X y Linux (hay
disponibles paquetes para Debian, Ubuntu, Arch Linux y Gentoo).

Su uso es muy sencillo. Solo tenemos que seleccionar el vídeo para el
que queremos descargar los subtítulos (o indicar la carpeta en la que
se encuentran nuestras series / películas / documentales) y pulsar
"Search subtitles" (buscar subtítulos).

La aplicación calculará el hash de los vídeos y buscará los subtítulos
en los idiomas que deseemos, usando para ello la web de OpenSubtitles.

Una vez terminada la búsqueda no tenemos más que seleccionar las
versiones que queramos y pulsar "Download" (descargar) para descargar
los subtítulos.
Relacionadas

* Subtítulos de Futurama: Bender's big score
* Configuración mplayer
* Descargar de Rapidshare

Etiquetas: descargar, Linux, mac-os, series, Software, subtitulos,
Ubuntu, videos, windows

Comentarios

1.
Zootropo

Por cierto, en la entrada sobre cómo descargar series
automáticamente bertol habló de una alternativa que puede que a alguno
le guste más: Sublight, aunque no es open source y sólo funciona en
Windows.

2.
fernanda

hola mira esta web con varios links a paginas de subtitulos:

http://zonanew.blogspot.com/2008/08/subtitulos-para-descargar-gratis.html

3.
joseangelmadrid

Una desventaja de Subdownloader para los que usamos (también)
Windows es que a partir de la versión 2.0.8 el programa es de prueba
durante 30 días. Después hay que amoquinar 10$.

4.
Ferderico

Yo me lo instalé ayer en mi ubuntu 8.10, y todavía no he logrado
encontrar la forma de ejecutarlo, no lo encuentro en el sistema… Sí,
soy tonto, ya lo sé.

5.
matutano

Vale, si lo instalas desde http://www.getdeb.net/release/3568,
eso sí, desinstalando primero el subdownloader-cli, funcionará en tu
ubuntu 8.10 64 bits, tonto!xD

6.
Zootropo

@joseangelmadrid cojones, eso no lo sabía, es cierto. Pues nada,
habrá que usar Sublight para Windows y SubDownloader para Linux,
supongo.

Pero vamos, también tienes el código y es una aplicación en
Python, así que no tienes ni que compilar…

7.
DiCrEn

Valla, el primer programa GPL que veo con version de prueba de
30 dias jaja

Vamos a probarlo, a ver que tal

8.
Zootropo

@DiCrEn pues si, es un poco absurdo, porque no habría ningún
problema, ni si quiera ético, en coger el código y empaquetarlo en un
exe para que la gente no tenga ni que instalar el intérprete de Python
y pueda usarlo sin esa limitación.

En fin, yo como en Windows no lo uso…

9.
Rick

El problema de estos programillas es que suelen buscar en sitios
del estilo de wikisubtitles (dep) y similares. Y al no tener la imagen
delante (como lo haces los grupos de subs) se pierde mucha
información. Y si vuelvo a ver 'cool' traducido por 'frio' mato a
alguien :)

10.
Anonimo

Si buscais subtitulos en ingles para las series, en http://www.tvsubtitles.net
estan todos.

11.
Blaxter

Yo no entiendo el hacer un programa de escritorio para descargar
contenidos de una web, pero bueno.

El problema que le veo es que, en mi opinión, wikisubtitles.org
no es muy buena fuente. En el tiempo que la he estado "testeando" era
siempre lenta (en rapidez a subir contenidos) e incompleta (tanto de
versiones de vídeo como de versiones de subtituladores)

Mis recomendaciones para subtítulos son:
* Inglés:
* podnapisi.net
* tvsubtitles.net
* Español
* subdivx.com
* subtitulos.es

12.
Zootropo

@Blaxter hombre, pues lo interesante es que es el programa el
que busca cada capítulo, comprueba si está el subtítulo y lo descarga,
en lugar de tener que ir buscando tú uno por uno. Si ves unas cuantas
series es mucho más cómodo.

13.
molgar

http://trac.opensubtitles.org/projects/oscar/ es otra opción

14.
Hirs

Scripts para nautilus:
http://gnome-look.org/content/show.php/download_opensubtitle?content=68085
http://gnome-look.org/content/show.php/download_tvsubtitles.net?content=90184

15.
Zootropo

Pues nada, ya lo he dicho hoy una vez, pero lo vuelvo a repetir.

Así da gusto, con comentarios como estos :)

16.
JoePerkins

Sublight da error 404 cuando intentas descargarlo.

17.
Descargar subtítulos para las series de forma automática →
Pedromoreno.net

[...] SubDownloader es gratuito y está para todas las
plataformas, Windows, mac y Linux (Vía MundoGeek) [...]

18.
Madigan

_La web_ para encontrar subtítulos: http://www.subtitleseeker.com

19.
Andre la Bella

A mí la más cómoda me sigue pareciendo Subtítulos.es, ya que tú
puedes subir un subtítulo en inglés, traducir online al castellano y
listo para que todo el mundo lo pueda bajar.


http://mundogeek.net/archivos/2008/12/17/descargar-subtitulos/

Paulo

unread,
Jan 23, 2009, 8:36:13 PM1/23/09
to Linux-Sur
Para mi amigo Robin de Ronda (ya solucione el tema de la wifi)
Gracias a Galiant y su bloq por esta información tan currada
currada

Arreglar wifi Compaq Presario
importaite compaq de Banesto wifi
http://galiant.blogspot.com/2008/12/instala-guadalinex-ubuntu-hardy-en-el.html


Aunque dice la etiqueta que se trata de un Compaq Presario C700 en
realidad es un Compaq Presario C735EM Notebook.
Algunos han desinstalado el Vista y han tratado de colocarle un XP,no
sin muchos problemas ya que al parecer no existen drivers de XP para
su disco duro SATA y hay que modificar la BIOS. De todas manera voy a
contaros mi experiencia al instalarle Guadalinex V5 cosa que no
difiere mucho de Ubuntu Hardy Heron 8.04 al basarse directamente en
esta.
Características

Las características del Compaq Presario C735EM Notebook son las
siguientes:

* Procesador Intel Celeron 540 a 1,86 Ghz.
* Memoria RAM de 1 Gb.
* Disco duro de 120 Gb.
* Regrabador de DVD.
* Tarjeta Wifi, modem, tarjeta ethernet y Webcam integradas.
* Tarjeta gráfica Intel Graphics Media Accelerator X100.
* Sistema operativo Windows Vista Home Edition.
* Peso 3,10 Kg.

Aspectos Generales
Primero arranqué el ordenador con el disco en modo live-cd y ví que
todo fue a la primera. Así que después de preparar las particiones me
dispuse a instalarle el sistema operativo.
Reconoció practicamente todo a excepción del wifi que luego explicaré
como solucioné.

Sonido
Todo fue a la perfección reconociendo la tarjeta de sonido y no
ofreciendo ningún problema en particular hasta el momento.

Tarjeta de Video
Todo como una seda. Después de la instalación y como me reconoció sin
problemas la tarjeta ethernet pues le instalé el compiz fusión
siguiendo mi receta que tengo en el blog y funcionó al instante con
una fluidez y soltura que a decir verdad no esperaba después de oir
algunas críticas a este portatil.
Wireless

El Wi-fi siempre dando problemas en GNU/Linux. ¿Por qué los
fabricantes no liberan sus especificaciones o mejor sacan drivers para
GNU/Linux?. Por desgracia no me funcionó con los drivers de MadWifi
que trae esta versión de Guadalinex, así que tuve que echar mano de
Ndiswrapper.

1. Descargamos los drivers para Windows desde aquí
2. Descomprimimos el archivo recién descargado (Botón derecho ->
Extraer aquí)
* unzip Wireless_Atheros_V5.3.0.67_XP_XB63_XB62(WHQL).zip
(ojo que no crea una carpeta, puede ser una buena idea crear una,
mover el archivo y descomprimirla ahí)
3. Abrimos una terminal y nos ponemos como root
* sudo su
4. Desmontamos el módulo de Madwifi (ath_pci)
* rmmod ath_pci
5. Ponemos el módulo ath_pci en la blacklist (es decir que ese
módulo no se cargue por nada del mundo)
* echo blacklist ath_pci >> /etc/modprobe.d/blacklist (lo
que estoy haciendo es agregar “blacklist ath_pci” al final del
archivo, pueden hacerlo con cualquier editor de texto) yo
particularmente prefiero el gedit pero con nano es igual
* sudo gedit /etc/modprobe.d/blacklist
6. Reiniciamos
7. Instalamos ndiswrapper (esto no es necesario con Guadalinex
puesto que ya lo trae instalado además de un gestor gráfico ndisgtk
que nos facilitará la vida)
* sudo apt-get install ndiswrapper-common ndiswrapper-
utils-1.9 ndisgtk
8. También puedes hacerlo a través de synaptic instalando los
paquetes directamente.
9. Una vez instalado nos dirigimos a sistema/administración/gestor
de driver windows.
10. Una vez allí cargamos el archivo .inf que teníamos en la carpeta
donde extraímos el driver de xp y listo.

Ahora deberíamos tener acceso a las redes inalámbricas (ícono de
arriba a la derecha). También podemos comprobar que está funcionando
con el comando iwconfig y puedes buscar redes inalámbricas con iwlist
scan (eso sí tienes que tener instalado wireless-tools).

Solo nos queda que nos arranque por defecto ndiswrapper cuando
encendamos el ordenador. Para ello nos vamos al terminal y tecleamos.

sudo gedit /etc/modules

Una vez abierto dicho archivo solo nos queda añadir al final

ndiswrapper

Guardamos y ya está.

Tengo que comentar que el famoso networking manager me dió algunos
problemas así que me decidí por instalar wicd siguiento esta receta.

Instalar wicd

ve a sistema->administracion->gestor de paquetes synaptic

cuando se abra ve donde dice configuracion y luego a "repositorios",
en esa ventana abre la pestaña "software de otros proveedores"

click en el boton añadir

También puedes desde un terminal

sudo gedit /etc/apt/sources.list

en esa ventana escribe lo siguiente

"deb http://apt.wicd.net/ hardy extras", sin las comillas claro está.

Donde dice hardy tienes que reemplazarlo por Dapper, Edgy, Feisty,
Gutsy, segun la version de ubuntu que estes usando.

Guardas y ya está.

Haz click en recargar o sudo update desde un terminal.

Cuando termine haz click en buscar, escribes wicd e instalas el
programa.

Una vez hecho esto te aconsejo que repitas la operación pero que
quites ese repositorio.

Luego ve a Sistema > Preferencias > Sesiones

En esa ventana haz click donde dice añadir

en nombre escribe WiCD

en comando escribe "/opt/wicd/tray.py" (sin las comillas). Luego
aceptar y cerrar.

Ahora podras escoger la red a la que quieras conectarte, y si quieres
puede hacerlo automaticamente sin que te pida password al inicio
....

Paulo

unread,
Feb 3, 2009, 3:22:35 PM2/3/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Descomprimir archivos .rar en Linux

1. Instalar p7zip-rar esto es lo más rápido y sencillo (te instala el
modulo rar para el file-roller tb)
2. Programas para comprimir en linux son: file-roller, p7zip, ark, etc

3. Otra opción es bajarse el winrar para linux
http://www.winrar.es/descargas?PHPSESSID=aca084040646077b0ceb4cae5ddaebaa



*******************************************-
Ubuntu facil - Como descomprimir /comprimir
archivos .rar, .zip , .jar , .tar (Edgy 6.10)

con 45 comentarios

Para poder abrir archivos rar, zip… con un doble clic como haciamos en
windows es muy facil, puedes hacerlo de varias formas, aqui te
indicamos un par de ellas.

La mas facil como casi siempre seria con Automatix2, lo abrimos en:
Menu principal/Aplicaciones/Herramientas del sistema/Automatix2
en el apartado “Utilities” marcamos e instalamos “Archiving Tools” y
listo, a descomprimir!

Tambien podriamos hacerlo de la siguiente forma,una vez actives los
repositorios “universe y multiverse”, tecleamos y ejecutamos en un
terminal :

sudo aptitude install rar unrar

y para Zip:

sudo aptitude install p7zip

(para desinstalar:

sudo aptitude remove rar unrar

sudo aptitude remove p7zip )ahora si haces doble clic sobre un archivo
comprimido .rar, .zip… veras que se habre y podras extraerlo.

Para hacer lo contrario(comprimir), haces clic derecho sobre el
archivo y seleccionamos “crear archivador...”, a continuacion en la
ventana que nos aparece, lo renombras si quieres, y elijes el formato
de compresion y el directorio donde quieres crearlo…asi de sencillo.
http://dudas.wordpress.com/2006/12/23/ubuntu-facil-como-descomprimir-archivos-rar-en-ubuntu-edgy-610/

Paulo

unread,
Feb 9, 2009, 5:04:27 PM2/9/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Listado de los top 500 ordenadores Las supercomputadoras del mundo
http://www.top500.org/list/2008/11/100

Red Española de Supercomputación
http://es.wikipedia.org/wiki/Red_Espa%C3%B1ola_de_Supercomputaci%C3%B3n

La Red Española de Supercomputación, creada por el Ministerio de
Educación y Ciencia, es un conjunto de supercomputadores distribuidos
en la geografía española que cubren la necesidades de cómputo
necesaria para el avance científico.

En la actualidad, la red se compone de siete supercomputadores y está
coordinada por el BSC.

* MareNostrum en el BSC (Barcelona).
* Magerit en el CeSViMa (Universidad Politécnica de Madrid,
Madrid).
* Altamira en el IFCA (Universidad de Cantabria, Cantabria).
* LaPalma en el Instituto de Astrofísica de Canarias
* Picasso en la Universidad de Málaga
* Tirant en la Universidad de Valencia
* CaesarAugusta en el BIFI (Universidad de Zaragoza).

Historia [editar]

La Red Española de Supercomputación se inauguró en marzo de 2007, ante
la necesidad de aumentar la capacidad de cálculo que da servicio a la
comunidad científica. A consecuencia de esta necesidad se procedió a
realizar una actualización del supercomputador MareNostrum, en la cual
se sustituyeron los blades JS20 por blades JS21, ambos de IBM, con lo
que se duplica su capacidad de cómputo. Los blades sustituidos se
utilizaron para crear una estructura distribuida de supercomputadores
en diferentes emplazamientos de la geografía española.

La mitad de dichos blades se utilizó para ampliar Magerit, el
supercomputador perteneciente al CeSViMa (UPM). El resto se repartió,
a partes iguales, para crear los nodos de las universidades de
Cantabria, Málaga, Valencia, Zaragoza y el Instituto de Astrofísica de
Canarias (IAC).

Utilización [editar]

El acceso al servicio se gestiona mediante un comité de acceso,
integrado por científicos encargados de valorar cada una de las
solicitudes de acceso y planificar el acceso a los recursos
disponibles. Los recursos se asignan por un periodo de 4 meses, tras
lo cual es necesario presentar una nueva solicitud de acceso.

Asimismo, cada una de las instituciones puede disponer de hasta un 20%
del uso de los recursos asignados, a excepción del CeSViMa que
controla cerca del 40% de la máquina, al disponer de nodos propios que
no proceden del MareNostrum.

Paulo

unread,
Feb 13, 2009, 4:07:43 PM2/13/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Santi tras hablar en la última reunión sobre las claves de firma, aqui
esta la solución para las claves de firma del launchpad.
Solucion actualizar las llaves públicas GPG de Launchpad en Ubuntu


descarga del script aqui: http://www.mediafire.com/?lmxln1jmzf0

Como ya todos saben desde hace poco se están implementando las firmas
de los paquetes alojados en Launchpad y a quienes no hayan actualizado
sus listas de llaves publicas les saldrá un error como el que leo en
El Tecnicida:

GPG error: http://ppa.launchpad.net intrepid Release: The following
signatures couldn't be verified because the public key is not
available: NO_PUBKEY 4874D3686E80C6B7

Para corregir esto tal como comentan en varios sitios es necesario
hacerlo de forma manual, algo engorroso si son muchas las claves que
uno necesita, pero gracias a la entrada escrita en El Tecnicida me
entero que un usuario de ubuntuforums publicó un Script que hace el
trabajo por ti. El cual pueden descargar desde acá en la ultima
versión funcional para Ubuntu (8.04-8.10-9.04):

Descarga Script Launchpad
Lo descargamos en nuestra carpeta home (personal) y lo descomprimes:
$ sudo unzip launchpad-update-final.zip
Y lo ejecutamos de la siguietne manera:
$ sudo ./launchpad-update intrepid
*cambiar “intrepid” por la versión de ubuntu que corresponda.

Fuente: http://bulleting.wordpress.com/2009/01/28/script-para-actualizar-las-llaves-publicas-gpg-de-launchpad-en-ubuntu/

http://www.forospyware.com/t227058.html

Paulo

unread,
Feb 13, 2009, 6:08:39 PM2/13/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Portable aplicaciones en Linux y programas de instalaciónn adept,
synaptic, etc
#
#
Support for portable applications /other installation methods:
Autopackage, SFS Technology, Smart Package Manager, Wine and Zero
Install

**************************************************************-
linux portable applications
http://hacktolive.org/wiki/Portable_Applications_(Linux)
Portable Applications (Linux)
From Hacktolive.org
Jump to: navigation, search

This pages covers both "cross-distro" installation methods available
for Linux and also "truly portable" methods. It is intended to be more
of a list than anything else...
Contents
[hide]

* 1 Autopackage
* 2 PackageKit
* 3 Smart Package Manager
* 4 LINA
* 5 Klik
* 6 Java
* 7 SFS Technology
* 8 Wine
* 9 Zero Install
* 10 l-portable
* 11 CNR
* 12 Nix
* 13 VMware ThinApp
* 14 Glick
* 15 OBLISK
* 16 PBI
* 17 Luau
* 18 FeedBack

Autopackage

Autopackage, once installed, allows the easy installation of .package
files, they are just software installers, not portable apps.
PackageKit

PackageKit is just a cross-distro package manager (a very good one)
Smart Package Manager

Smart Package Manager is just a cross-distro package manager (does not
seem to work very well)
LINA

LINA seems to be, among other things, some kind of platform that once
installed, seems to allow the easy installation of "LINAfied"
software. Might allow portable apps [1]
Klik

Klik, once installed, lets the user just go to the klik website,
choose one of the programs there, click a button, and then just
install it in a easy way... it then creates a .cmg file with the
program (I'm not sure if they are really portable)
Java

Programs in the .jnlp or .jar format can run on any computer with Java
installed. .jnlp do not seem to be self contained programs, but .jar
files are (Making .jar files "portable apps")
SFS Technology

SFS Technology allows, in theory, to run portable programs in .sfs
format. Some apps from their website worked well, however, only about
half of the ones I tested worked... (not to mention the software and
it's website are not even totally in English...). To create those .sfs
files, an user needs SFS Editor
Wine

Wine allows users to run some windows programs, therefore, allowing
users to run some windows portable applications on Linux.
Zero Install

Zero Install is an easy way to install software: If a software
developer publishes software in this format, just grab the install
link (example: http://rox.sourceforge.net/2005/interfaces/ROX-Filer ),
paste/drag it into Zero Install, and the program will be downloaded
and installed.

While this does not make the software portable, there is a program, to
be installed together with Zero Install, called Zero2Bundle, that can
create "self-contained bundles" (meaning: "portable apps"! that don't
require any other software installed, not even Zero Install), but only
works with programs already available in "Zero Install format"...
l-portable

l-portable, in theory, can install some portable apps into a folder or
USB flash drive, it did not worked for me, and at this time only
offers Firefox, Mozilla Thunderbird and MPlayer to be installed as
portable software.
CNR

CNR.com offers programs in .cnr format. Note that .cnr files do not
contain the software, they are just "links", and need internet
connection to be installed, those files can be installed in many
distros, as long as they have the CNR Plugin. Still in Beta, does not
work very well, and they don't even have a plugin for Ubuntu 8.10.
Currently (as of November, 2008) there seems to be no way to
unninstall the software installed with CNR.
Nix

Nix "is a purely functional package manager. It allows multiple
versions of a package to be installed side-by-side, ensures that
dependency specifications are complete, supports atomic upgrades and
rollbacks, allows non-root users to install software..." <-- seems to
be a good piece of software, but I never really tried...
VMware ThinApp

VMware ThinApp is a tool to make Portable Aplicattions for Windows
Glick

Glick is a runtime-less application bundle system for linux (seems to
be able to create portable apps... but I'm not sure if it works
properly...)
OBLISK

(OUTDATED) OBLISK is "...a packaging system for GNU/Linux that will
allow any binary package to run on virtually any system, regardless of
the setup. It also makes the installation process easier for the end-
user by eliminating the need to use secondary tools to install"
PBI

PBI seems to be only for PC-BSD (yes, I know this is not the place,
but it might be an interesting technology...)
Luau

(OUTDATED) I'm not really sure what Luau is, but it seems to be
cool... From the site: "Automatically Update Programs And Libraries.
Power And Flexibility Through Decentralized Control"
FeedBack

If you want to suggest more software, or you have found a mistake, you
can contact me!

santi

unread,
Feb 14, 2009, 12:53:11 PM2/14/09
to linu...@googlegroups.com
Genial! Ni un solo problema (aunque en mi caso era sólo una llave de AWN).

Paulo

unread,
Mar 13, 2009, 12:41:39 PM3/13/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Manual de Robin en Linux-Ronda de tarjetero para firma electrónica
http://wiki.linuxronda.es/index.php?title=Firma_electr%C3%B3nica_del_SAE

Firma electrónica del SAE
De Wiki Linux Ronda
Saltar a navegación, búsqueda

En este artículo se explica como instalar y usar la firma electrónica
del SAE (Servicio Andaluz de Empleo) y el respectivo Lector de
tarjeta. Ambos deben pedirse en una oficina del SAE.
Tabla de contenidos
[ocultar]

* 1 Instalación del software y drivers
* 2 Lanzar daemons
* 3 Instalar complementos para Java
* 4 Configurando Firefox



[editar] Instalación del software y drivers

En primer lugar instalamos Java que es necesario para aceder a la
pagina del SAE

Arch:

sudo pacman -S jre

Ubuntu:

sudo apt-get install sun-java6-jre sun-java6-plugin

Después instalamos PC/SC que es el middleware encargado de comunicar
el software cryptográfico con el lector de tarjetas.

Arch:

yaourt pcsc

e instalamos los tres paquetes que nos muestra.

Ubuntu:

sudo apt-get install pcscd pcsc-tools

Ahora el driver para el lector de tarjetas. Dado que usa el estandar
CCID instalamos:

Arch:

yaourt ccid

e instalamos el paquete aur/ccid.

Ubuntu:

sudo apt-get install libccid

Ahora el driver para la tarjeta del SAE. Este viene en el CD que nos
proporcionan con el lector de Tarjetas. Descomprimimos el tar del CD
en el directorio Raiz ("/") como root:

su
cd /
tar -xzvf /punto/montaje/cd/tarjeta/Linux/
HiPath_SIcurity_Card_API_V3_1_010_Linux.tar.gz

Ahora debemos crear un enlace simbolico dado que la version de PC/SC
que usamos es mas reciente que la que usaron cuando se creo el Driver:

su
ln -s /usr/lib/libpcsclite.so.1.0.0 /usr/lib/libpcsclite.so.0

Por último instalamos OpenSC:

Arch:

yaourt opensc

Instalamos el paquete: aur/opensc.

Ubuntu:

sudo aptitude install opensc mozilla-opensc

Con esto tenemos instalado todo el software que necesitamos.


[editar] Lanzar daemons

Para poder usar el lector debemos lanzar los daemons OpenSC y PC/SC:

Arch:

/etc/rc.d/pcscd start
/etc/rc.d/opensc start

Ubuntu:

/etc/init.d/pcscd start
/etc/init.d/opensc start


[editar] Instalar complementos para Java

Al parecer la Junta de Andalucia la ha dado dos nuevos amigos a Java
que son jss33.jar y libjss3.so. Estos complementos que se usan en la
pagina del SAE son imprecindibles para navegar por ella.

Primero nos bajamos jss33.jar de aquí. Ahora lo copiamos (como root)
al directorio lib/ext de Java:

Arch:

sudo cp jss33.jar /opt/java/jre/lib/ext/

Ubuntu

sudo cp jss33.jar /usr/local/j2re1.4.2_03/lib/ext/

Supongo (no uso Ubuntu) que j2re1.4.2_03 varía según la versión de
java que tengan instaldo.

Ahora nos bajamos libjss3.so de aquí y lo copiamos como root al
directorio lib/i386/client de java.

Arch:

sudo cp libjss33.so /usr/local/jre/lib/i386/client/

Ubuntu:

sudo cp libjss33.so /usr/local/j2re1.4.2_03/lib/i386/client/

Complementos instalados.
[editar] Configurando Firefox

Ahora toca configurar Firefox para que use la tarjeta como fuente de
certificado. En primer lugar enchufamos el lector al equipo e
insertamos la tarjeta en el. Después abrimos Firefox y nos vamos a
Editar > Preferencias > Avanzado > Cifrado y hacemos clic en Cargar.
Le damos un nombre, que no sea el propuesto por Firefox (a mi se me
bloquea si dejo este), por ejemplo Firma Digital y hacemos clic en
Examinar. Ahora nos vamos a /usr/local/lib, seleccionamos el archivo
libsiecap11.so y Aceptamos en ambas ventanas. En la lista de la
izquierda debe aparecer nuestro nuevo dispositivo. Si lo selecionamos
y hacemos clic en Iniciar Sesión nos pedirá una contraseña que, si no
la has cambiado es la que ponen por defecto ("12345678"). Obiamente
esto no es seguro por lo que te recomiendo que la cambies haciendo
clic en Cambiar contraseña.

Hay un pequeño problema con Firefox y es que cuando lo intentas
iniciar sin el lector de tarjetas puesto después de añadirlo a la
lista de Dispositivos de Seguridad no lo hará. Voy a ver si encuentro
solución para esto. De momento cada vez que lo cierro elimino el
dispositivo de la lista.

Tampoco he conseguido hacer una copia del certificado al disco duro. A
eso Firefox me contesta con "No es posible hacer copias de seguridad
de certificados procedentes de dispositivos de seguridad hardware
tales como tarjetas inteligentes.".

Ahora estamos listos para usar el servicio Online de las oficinas del
SAE. Solo necesitamos entrar a esta dirección: https://ws032.juntadeandalucia.es/sidea/
y si Firefox no acepta los certificados tienes que hacer una exepción
y dejarla guardada.

Paulo

unread,
Mar 18, 2009, 6:22:54 AM3/18/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
DIFERENCIAS ENTRE GPL Y GNU
http://www.taringa.net/posts/info/1221438/Diferencias-entre-Gnu---Gpl.html

¿Qué es el software libre?

Cuando nos bajamos algún programa de internet sabemos que este tiene
un autor. Normalmente este programa tendrá una licencia que nos
permite "probar antes de comprar" (shareware) o directamente nos
permite usarlo ilimitadamente y copiarlo con más o menos restricciones
(freeware). Luego tenemos otras licencias en las que directamente no
se nos deja probar el software sino en versiones reducidas (demo o
demostración).
Todos ellos tienen algo en común: Son lo que a partir de ahora
llamaremos "Software propietario". ¿Qué diferencias existen entre el
Software libre y el Software propietario? Varias que vamos a repasar a
continuación. Software libre, software propietario

0) Libertad total de uso del programa:

Esta es bastante clara. Úsalo como quieras, cuando quieras, como
quieras y en tantas máquinas como quieras. En el software propietario
no suele existir esta libertad, pagas por cada máquina que va a usar
ese software.

1)Normalmente no te dan acceso al código fuente del programa:

El código fuente de un programa es como los planos de un edificio o de
una vivienda. A partir de ellos y con ayuda de un compilador, entre
otras herramientas, conseguimos rehacer (compilar) el programa. Si no
tenemos acceso al código fuente ya nos están robando un derecho y con
ello tenemos varias desventajas: • No sabemos si el programa esconde
alguna puerta trasera.
• No podemos modificarlo, mejorarlo o adaptarlo a nuestras
necesidades. Aunque no nos interese o no sepamos ver el código fuente,
otros lo harán por nosotros y siempre podremos estar un poco más
tranquilos.

2) No puedes copiarlo sin restricciones:

Pocos programas propietarios te dejan distribuir copias del mismo ya
que su forma de negocio se basa en la venta de licencias (normalmente
por puesto de trabajo o por clientes simultaneos si es un servidor).
Si quieres compartir, no puedes. Otro derecho perdido.

3) No se permite modificar libremente el código:

En las también pocas veces en que recibamos el código o parte de él,
no se nos permitirá arreglar algún fallo ni adaptar ciertas partes o
simplemente hacer otro programa a partir de él. Con esto el desarrollo
y mejora del programa queda reducido a la capacidad de la empresa
dueña. Pensad que pasaría si Quark fuera libre: ¿Tendría versión
MacOSX ya?
Estas son las libertades esenciales que defiende el software libre a
grosso modo. Aunque dentro del mismo software libre hay varias
licencias diferentes y muchas discusiones sobre cual es más libre,
daremos un repaso a las más usadas y os dejo a vosotros que opineis:

Distintos sabores de Software libre

1) GPL (GNU Public License o General Public License): Básicamente
defiende el acceso y modificación del código sin restricciones, la
libertad de distribución y el mantenimiento de esta libertad. Es un
tipo de licencia "vírica" (Término acuñado por Microsoft. Yo prefiero
decir Copyleft :-)) pues si tu programa es GPL nunca podrá ser
modificado para construir software que sea propietario ni cambiará de
licencia hacia otra que disminuya tu libertad: Si usas algún trozo de
código GPL en tu programa, este deberá ser también GPL o tener una
licencia compatible.

2) BSD:

Defiende las mismas ideas que la GPL excepto con una pequeña y a la
vez notable diferencia; la licencia puede ser cambiada por cualquiera
incluso hacia otra más restrictiva o volverlo GPL.

3) LGPL (Lesser GNU Public License o Library GNU Public License):

Permite que programas no-libres usen librerias con esta licencia sin
tener que dejar de ser libres. Fue pensada para ayudar a la expansión
de ciertas librerias para crear estándares de facto que fueran libres.
Ejemplo: zlib.
Un dato común en estas licencias es que NO tienen ninguna garantía "de
fábrica" pero nada impide a cualquiera ofrecer garantía sobre
cualquier aplicación libre.

Otras preguntas frecuentes
Básicamente esto es el software libre, pero seguro que tienes muchas
preguntas sobre ello. Ataquemos las más frecuentes:


a) ¿Qué es GNU?.

Es simplemente un proyecto dedicado a construir un sistema operativo
totalmente libre. Por ahora el proyecto GNU usa mayoritaria y
oficialmente el núcleo Linux. Por eso mucha gente dice "GNU/Linux"
para referirse al sistema operativo del pingüino. De hecho Linux solo
es el núcleo como lo sería Darwin en MacOSX. GNU no es ni una licencia
ni una asociación ni una empresa, tan solo es un proyecto. Ni crean
licencias ni nada similar.
Realmente GNU tiene en mente usar otro núcleo, aún en desarrollo,
llamado HURD. Pero podriamos usar GNU con cualquier núcleo libre y un
poco de maña.

b) Entonces ¿Qué o quien está detrás de todo esto?

Principalmente la Free Software Foundation (FSF). Principal
benefactora e impulsora de GNU y creadora de las licencias GPL, LGPL,
GFDL (aplicada a documentos). El fundador de la FSF es Richard M.
Stallman (RMS). En este mundo abundan los acrónimos ;-)

c) ¿Respeta el software libre los derechos de autor? ¿Y con la
propiedad intelectual que pasa?

Pongamos un Autor A que ha creado un producto X. El Sr. A conservará
la autoría y la propiedad intelectual sobre X siempre.
Si alguien coge X y a partir de él crea Z, Z no será propiedad
intelectual ni autoría de A, pero X continuará siéndolo. Quizá no
guste a primera vista pero ten en cuenta que si tu producto está
licenciado bajo la GPL, el producto derivado del señor Z también lo
estará así que puedes aprovechar las mejoras que él ha hecho a tu
software.
En España la autoría no puede ser transferida de ninguna forma, pero
sí los derechos de explotación (también llamados derechos de autor).
Así que nunca perderías la autoría de tu programa.

d) ¿Puedo vender software libre?

Sí. Recuerda que tienes total libertad de distribución del software.
El Sr. B puede grabar el programa Z en un CD y venderlo si quiere.

e) ¡¿Entonces nadie lo compra?!
Ahí es donde entra el valor añadido. Puedes, como máximo experto en tu
producto, ofrecer servicio técnico y/o mantenimiento cobrando. Es solo
una idea así que en tus manos está el hacer dinero o programar por
placer.

FUENTE:

http://www.macuarium.com/macuarium/actual/especiales/2002_12_07_opensource.shtml

Paulo

unread,
Apr 8, 2009, 4:44:09 PM4/8/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
http://unmundolibre.es/2008/05/03/reproducir-dvd-en-ubuntu/
VER UN DVD EN LINUX Reproducir DVD en Linux Ubuntu
Por unmundolibre
Categorías: Linux
Tags: dvd, ubuntu

A través de Lifehacker llego a Tech-recipes.com donde explican como
habilitar la reproducción de DVD en dos líneas de comando.

Lo primero es instalar los paquetes correspondientes desde la consola
mediante:

sudo apt-get install totem-xine libxine1-ffmpeg libdvdread3

Una vez hecho esto hay que ejecutar lo siguiente:

sudo /usr/share/doc/libdvdread3/install-css.sh

Personalmente nunca he tenido problemas reproduciendo DVD en mi
portátil con Kubuntu y estoy de acuerdo en que no es el método más
sencillo para alguien que comienza con el software libre. Pero ahí
queda.

Paulo

unread,
Apr 10, 2009, 2:36:28 PM4/10/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Agrega seguridad tu gestor de arranque GRUB

Tecnologias de Software Libre

Te has preguntado alguna vez como cambiar la presentación del gestor
de arranque del GRUB y sustituirlo por uno mas alegre y con color, o
tal vez porque no añadir un password a tu gestor de arranque para
añadirle mas seguridad a tu equipo, en este pequeño articulo te
enseñamos como hacerlo.

o primero que deberás hacer sera editar el fichero “/boot/grub/
menu.lst” e identificar los siguientes parámetros:

Cambiar la elección de arranque por default

El parámetro
default=0
sirve para indicar al GRUB el sistema operativo que se arrancara por
defecto , en este ejemplo el parámetro default toma el valor de 0, el
cual corresponde al primer sistema operativo que aparece en el GRUB,
entonces el valor 1 corresponderá al segundo y así sucesivamente.
Veamos un ejemplo con el archivo de configuración anterior para
entenderlo mejor:
El valor 0 arrancara Debian
El valor 1 arrancara Fedora
El valor 2 arrancara Ubuntu

Cambiar el tiempo del contador de arranque
El parámetro
timeout=5
es el tiempo en segundos en el que tarda en iniciar al sistema
operativo por defecto. En este caso el valor 5 equivale a cinco
segundos.

Agregar un password al Gstor de arranque GRUB
La forma de agregar un password al gestor de arranque se hace de la
siguiente manera
Ejecuta una terminal de BASH y dentro de ella teclea lo siguiente

------------------------------------------
[BASH ]# grub
------------------------------------------

Nos aparecerá una línea así:
------------------------------------------
grub>
------------------------------------------

Lo siguiente sera teclear la siguiente sentencia

------------------------------------------
grub> md5crypt
------------------------------------------


Nos pedirá un password, que al teclear nos arrojara un resultado
parecido al siguiente
-----------------------------------------------------------------------
Encrypted: $1$mZyJR$QZTEMXUho.iFpxnWY86E61
-----------------------------------------------------------------------

Copiamos este resultado y lo escribimos debajo de la linea
“hiddenmenu” del fichero “/boot/grum/menu.lst” acompañado de la
siguientes instrucciones
------------------------------------------------------------------------------
password –md5 $1$mZyJR$QZTEMXUho.iFpxnWY86E61
------------------------------------------------------------------------------
Ejemplo:
------------------------------------------------------------------------------
default=0
timeout=5
splashimage=(hd0,0)/boot/grub/splash.xpm.gz
hiddenmenu
password –md5 $1$mZyJR$QZTEMXUho.iFpxnWY86E61
------------------------------------------------------------------------------

Ocultar el Gestor de arranque durante el arranque del sistema
Para ocultar el menú del GRUB al los usuarios que hagan uso de nuestro
equipo basta con comentar la siguiente linea del fichero “/boot/grub/
menu.lst”
Para comentar la linea basta poner un gato al inicio del parámetro

-----------------------------------------------------
#hiddenmenu
----------------------------------------------------
Fuente: LinuxParatodos.net

Paulo

unread,
Apr 10, 2009, 5:08:01 PM4/10/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Scripts para nautilus

¿Qué son los Scripts de Nautilus?

Los Scripts de Nautilus son unas pequeñas aplicaciones que podemos
ejecutar desde el Explorador de Archivos de Gnome (Nautilus). Hay
diferentes tipos de scripts: para el manejo de imágenes, para archivos
de audio, creación de DVDs o una herramienta para lanzar tus propios
comandos de forma parametrizada.

Último script añadido al paquete: ID3 con datos de directorio y
archivo

Crea tus propios comandos para lanzar desde nautilus
¿Quién puede usarlos?

Aunque actualmente se está buscando la forma de ejecutarlo en otros
programas (como Konqueror o Thunar), ahora mismo sólo funcionan en
Nautilus.
¿Cómo puedo instalarlos?

Para poder ejecutar script desde nautilus tenemos que tener instalado
el paquete python-nautilus que viene en los repositorios de cualquier
distro actual o empaquetado en RPM. A continuación descomprime el
paquete de scripts (bájalo desde aquí o desde el botón que está en el
menú de la derecha). Luego sólo tendremos que copiar los scripts en el
directorio:

/home/usuario/.gnome2/nautilus-scripts

Una vez hecho esto si seleccionamos desde nautilus cualquier archivo y
pulsamos el botón derecho aparecerá un menú llamado "Scripts" con la
misma estructura que el directorio anterior y podremos ejecutarlos.

Asegúrate que los scripts tienen permisos de ejecución.
http://nautilus-scripts.javielinux.com/

Paulo

unread,
Apr 11, 2009, 8:00:36 AM4/11/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Cómo instalar 145 sistemas operativos en un PC
www.justlinux.com/forum/showthread.php?t=147959
por sphericow el 30-03-2009 21:37 UTC

En How to install and boot 145 operating systems in a PC un moderador
de los foros de JustLinux nos explica cómo instaló 3 versiones de DOS,
5 de Windows y 137 de Linux en una misma máquina. (Título y entradilla
de: mundogeek.net/archivos/2009/03/30/como-instalar-145-sistemas-
operativo/)

Paulo

unread,
Apr 12, 2009, 3:44:34 PM4/12/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
FIREFOX ADDONS MEGAUPLOAD FIREFOX EXTENSIONES

Saltarse el modo de espera al ver las pelis con firefox
https://addons.mozilla.org/es-ES/firefox/search?q=SkipScreen&cat=all

Un addon de Firefox para automatizar paginas como Rapidshare,
Megaupload, etc que te hacen esperar y clicar muchas veces antes de
llegar al contenido deseado. Porque hacer todo eso trabajo cuando tu
browser puede hacerlo?

Paulo

unread,
Apr 13, 2009, 10:49:55 AM4/13/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)

Prepara y optimiza tu actualización a Ubuntu 9.04 con apt-P2P

por : Jesús Maturana: 12 Abr 2009, 22:21

Con la ya casi inminente actualización de Ubuntu a la versión 9.04,
que incluye novedosas mejoras que prometen un mayor rendimiento y
estabilidad, llegará la saturación de los servidores de Canonical y
por ello os recomendamos que hagáis uso de apt-P2P, sí sí P2P, que
hace uso de una distribución de las actualizaciones además de los
servidores, entre los propios usuarios.

apt-p2p es un proxy P2P para las descargas a través de apt. Actúa como
proxy entre las peticiones APT y los servidores de los repositorios,
descargando cualquier petición de archivos desde los usuarios (si es
posible), y si no directamente desde el propio servidor. Ello ahorrará
ancho de banda de los mismos, así como la congestión de los mirrors de
Ubuntu en el momento del lanzamiento.

Pasos a seguir para su instalación /configuración:

1. Instalar apt-p2p

sudo apt-get install apt-p2p

2. Preparar el archivo sources.list

#Backup sources.list

sudo cp /etc/apt/sources.list /etc/apt/sources.list-apt-p2p-backup

3. Editar sources.list

#añadir “localhost:9977″ después de cada “http://”
deb http://localhost:9977/archive.canonical.com/ubuntu hardy
partner
deb-src http://localhost:9977/archive.canonical.com/ubuntu hardy
partner
deb http://localhost:9977/*mirror-address*/ubuntu/ hardy main
universe restricted multiverse
deb-src http://localhost:9977/*mirror-address*/ubuntu/ hardy main
universe restricted multiverse

4. Actualizar los paquetes

sudo rm -rf /var/cache/apt-p2p/cache/*

sudo apt-get update

5. Comenzar la actualización desde Intrepid a Jaunty

sudo update-manager -d

6. Comprobar los datos y estadísticas DHT, descargas y subidas:

Ir en el navegador a http://localhost:9977

Con ello veremos qué descargas se realizan a través de la red de
intercambio de actualizaciones en lugar de directamente desde los
servidores, lo que sin duda aumentará la tasa de descarga de las
actualizaciones y tendremos antes nuestro flamante Ubuntu 9.04 Jaunty
Jackalope en funcionamiento.

ShareThis

* inicio
* imprimir
* comentar este artículo

Comentarios

Se le esta acabando el dinerito al hombre espacial? Si es que la
crisis aprieta para todos.

* por silx
* 12 Abr 2009, 23:11
* comment

Pues nunca he tenido queja de los servidores de ubuntu, claro qe tengo
una conex de 6 megas, igual algún quisquilloso con su conex de 20
megas lo quiera al máximo y eso los servidores no quieran… pero bueno.

* por tarza
* 12 Abr 2009, 23:12
* comment

[...] Fuente: The Inquirer ES [...]

* por Prepara y optimiza tu actualización a Ubuntu 9.04 con apt-
P2P | DevNote
* 12 Abr 2009, 23:37
* comment

gracias por las instrucciones, seguro que estara default en la version
final o en la proxima, esto es algo que han pedido ya por algun tiempo
y por fin ya lo tenemos :)

pero en cuanto a actualizaciones me encanto lo que ha hecho fedora, ya
que solo descarga las partes que cambian de codigo de un paquete
ahorrando montones de megabytes

* por manny
* 13 Abr 2009, 0:20
* comment

#silx

no creo, lo que se esta haciendo es usar la tecnología P2P para lo que
ha sido creada, hasta los servidores de la empresa mas poderosa de
software se ha sabido saturar en varias oportunidades. Creo que el P2P
tiene varias cualidades muy buenas (no solo es un sistema para pasar
archivos con copyright) y usarlo para esos fines es genial.

* por insulae
* 13 Abr 2009, 0:40
* comment

Toma nota, SINDE

* por seldon85
* 13 Abr 2009, 4:22
* comment

Gracias por al apunte, pero me quedo con la 8.04 LTS hasta la próxima
versión LTS ,ya me cansé de tantos problemas en las versiones
intermedias.

* por alg
* 13 Abr 2009, 6:33
* comment

@ silx

no hombre…… por desgracia para los trollacos windowseros o wintrolls ,
GNU/linux sigue avanzando y cada vez tiene mas usuarios.

con cada salida de una nueva versión de Ubuntu ( y derivadas ) todos
los usuarios de dicha distro ( y muchos otros que la descargan para
probar ) actualizan sus sistemas y eso genera un consumo de ancho de
banda considerable ( y eso que solo somos 4 pelagatos segun las
estadisticas ^_^ ) que como es puntual ( una vez cada 6 meses ) hace
que no sea rentable ampliar las infraestructuras cuando, de una manera
sencilla y utilizando otras herramientas ( como el P2P ) puede
evitarse….

no es cuestion solo de ahorrar dinero… es cuestión de no malgastarlo y
hacer que cada € invertido este lo mas aprobechado posible…

esta claro que para un “cabeza cuadrada” eso de no malgastar recursos
no es asimilable por su unica neurona…

@ tarza

los dias de salida de cada versión los usuarios sufrimos la
“versionitis” y deseamos estar a la ultima…

eso hace que durante el dia de salida y los posteriores a la salida de
una nueva distro los servers se saturen y sea mas recomendable tirar
de P2P para hacer la descarga de la distro en si que de los servers
oficiales , los cuales deberian dejarse “tranquilos” y utilizarlos
unicamente para actualizar…








Paulo

unread,
Apr 16, 2009, 8:17:24 AM4/16/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
******************************************************************************-
linux entornos de escritorio desktop
lxde fluxbox Enlightenment xfce
lxde kde4-core
administrador de ventanas
wm2 flwm


Los usuarios de Linux Ubuntu 8.10 podemos instalar KDE 4.2, podemos
encontrar los nuevos paquetes actualizados a la última versión en los
repositorios experimentales de Kubuntu.

Primero hay que eliminar el paquete koffice-data-kde4 [sudo apt-get
autoremove koffice-data-kde4].

Después hay que añadir los siguientes repositorios a /etc/apt/
sources.list

* deb http://ppa.launchpad.net/kubuntu-experimental/ubuntu
intrepid main

Añadir la clave del repositorio:

* gpg –keyserver keyserver.ubuntu.com –recv-keys 493B3065 && gpg –
export -a 493B3065 | sudo apt-key add -

Actualizar los datos de los paquetes:

* sudo apt-get update

Ahora se puede instalar KDE con este comando:

* sudo aptitude install kde

-------------------------------------
sudo gedit /etc/apt/sources.list

añadimos al final

deb http://ppa.launchpad.net/kubuntu-members-kde4/ubuntu gutsy main

guardamos y cerramos el archivo, ahora tendremos que actualizar la
lista

sudo apt-get update

Segundo paso: instalamos KDE 4 (ojo, no deben tener KDE previamente
instalado)

sudo aptitude install kde4-core

Listo, ya tenemos instalado KDE 4 en Ubuntu, ahora solo falta cerrar
la sesión y abrir una nueva, pero antes de ingresar hacemos clic en
opciones y seleccionamos la sesión KDE para que arranque con este
escritorio.


---------------------------------------------*
otra forma
Instalar KDE 4.2 en Ubuntu

Teclea en la terminal:

sudo gedit /etc/apt/sources.list

Agrega esta linea a tus repositorios:

deb http://ppa.launchpad.net/project-neon/ubuntu intrepid main

Guarda y cierra el documento, después solo bastará que teclees:
sudo apt-get update
sudo aptitude install kde-nightly

Si lo que desees es tener el sensacional reproductor Amarok en su
versión más reciente (development) puedes teclear:

sudo apt-get install amarok-nightly
Aquí teneis un repositorio oficial:
deb http://ppa.launchpad.net/kubuntu-experimental/ubuntu intrepid main

Y las claves:
gpg –keyserver keyserver.ubuntu.com –recv-keys 493B3065 && gpg –export
-a 493B3065 | sudo apt-key add -

Paulo

unread,
May 4, 2009, 4:45:58 PM5/4/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
codigo ascii código ascii
Las Tildes y la ñ en Linux
25 Abril 2009 5 Comentarios
ñ en Linux

Hace algunos días, me encontré con una publicación en el blog de
linkertux, que narraba una manera de obtener los acentos o tildes y
otros caracteres especiales (como la ñ) en un Sistema GNU/Linux cuando
se cuenta con un teclado en ingles. Este método consiste simplemente
en recurrir a una tabla de códigos muy similar al clásico estilo de
los Sistemas de MS. Estos son algunos de los códigos mas utilizados y
su forma de uso:

Ctrl + Shift + (codigo alfanumerico):

* Mayúsculas / Minúsculas
* Á = UC1 / á = UE1
* É = UC9 / é = UE9
* Í = UCD / í = UED
* Ó = UD3 / ó = UF3
* Ú = UDA / ú = UFA
* Ñ = UD1 / ñ = UF1
* ¡ = UA1
* ¿ = UBF


http://www.iguanalinux.com/gnulinux/documentacion/las-tildes-en-linux/

Paulo

unread,
May 9, 2009, 4:57:29 PM5/9/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
playstation linuxera ps linux para psp

distro específica: linux Black Rhino & yellow dog

http://youtube.com/watch?v=AKB7gKhDRFk



-
***************************************************************************************************-

Linux en PlayStation 3

http://es.wikipedia.org/wiki/PlayStation

PlayStation 3 tiene como característica el ejecutar Linux, así como
otros sistemas operativos si son instalados en el disco duro de la
consola. Yellow Dog Linux es la distribución "oficial" de Linux para
PlayStation 3. Otras distribuciones como Fedora, Gentoo y Ubuntu
también son compatibles con la consola. Cualquier sistema operativo de
Linux tiene acceso a 6 de los 7 elementos de procesamiento sinérgicos,
Sony implementa un hipervisor para restringir el acceso a la RSX. IBM
proporciona una introducción a la programación de aplicaciones
paralelas sobre la PlayStation 3.
Contenido
[ocultar]

* 1 Historia
* 2 Kernel
* 3 Distribuciones
o 3.1 Ubuntu
o 3.2 Yellow Dog
o 3.3 OpenSUSE
* 4 RSX Homebrew
* 5 Referencias
* 6 Véase también
* 7 Enlaces externos

Historia [editar]

Desde el comienzo del 2000, Sony ha aprovechado el hecho de que la
PlayStation 2 puede ejecutar Linux como marketing. Promovieron la
liberación del PS2 Linux Kit, que incluye un sistema operativo basado
en Linux, un teclado y un mouse USB, un adaptador VGA, un adaptador de
red de PlayStation 2 (sólo Ethernet), y una unidad de disco duro de 40
GB.

Originalmente Sony dijo que Linux estaría pre-instalado en el disco
duro de la PlayStation 3, sin embargo, el plan fue desechado por
razones desconocidas y las unidades actuales no incluyen Linux pre-
instalado. Sin embargo, Sony ha incluido una opción en el menú XMB
para instalar otros sistemas operativos tales como Linux.[1] Sony
declaró en una entrevista que "Se tiene la firme intención de que
usted, un propietario de PS3, pueda jugar, ver películas, fotos,
escuchar música, y gestionar todas las funciones del sistema operativo
Linux que transforma su PS3 en una computadora en casa."[2]

Poco después del lanzamiento de la PlayStation 3, Sony incorporó en
una actualización del firmware al Playstation 3 Software System
(Sistema operativo nativo de Playstation 3 en la versión final) la
opción "otro sistema operativo" que permite el arranque de Linux desde
el disco duro o desde un Live CD haciendolo posible ejecutar en la
PlayStation 3.

Kernel [editar]

A partir del núcleo Linux 2.6.21, ha habido apoyo oficial para PS3 y
Linux por lo que no se necesitan parches para que se ejecute. También
hay un uso fácil de añadir Linux en CD para la PS3 incluido el soporte
a Fedora Core 8 y otros sistemas operativos que se pueden instalar
nativamente en la PS3.

Distribuciones [editar]

OpenSuSE, Ubuntu, Fedora Core 8, Yellow Dog, Gentoo y Debian pueden
ejecutarse en la PlayStation 3. Sony patrocina una distribución
específica, Yellow Dog Linux para la PlayStation 3, que fue el primero
en lanzarse para la PS3 a finales de 2006.[3]

Ubuntu [editar]
Artículo principal: Ubuntu

PSUbuntu es una distribución Ubuntu capaz de ejecutarse en PlayStation
3. Ofrece extensión ISO y las instrucciones están disponibles. El
instalador no puede ejecutar en modo Live, pero quizás ofrecerá un
instalador suplente (basado en texto) que instalará, completamente
funcional, el sistema operativo Ubuntu. Es posible tener un disco duro
externo USB enlazado a la PlayStation 3, durante la instalación, y
optar por montarlo como carpeta de inicio.

Ubuntu Linux incluye el conocido software GNU/Linux (como el kernel de
Linux propiamente dicho) así como otros de código libre/abierto como
Apache, PostgreSQL, y Python. La distribución también incluye
aplicaciones de los usuarios, tales como el navegador web Mozilla
Firefox, OpenOffice.org, Evolution, Rhythmbox, pidgin, y GIMP.

Ubuntu Linux es un derivado de Debian y se basa en el gestor de
paquetes apt, que utiliza los paquetes .deb. Cada vez que sale una
versión de Ubuntu, cada 6 meses más o menos, se va añadiendo más
soporte de hardware. Como resultado, Ubuntu soporta la aceleración de
hardware de gráficos que funciona de serie sin instalar nada; para
otro tipo de hardware, quizá el usuario deba intervenir manualmente
para instalar su soporte en el núcleo del sistema.

Yellow Dog [editar]
Artículo principal: Yellow Dog

Yellow Dog Linux 5,0 fue una de las primeras distribuciones de Linux
para correr en PlayStation 3. Se ha diseñado específicamente para HDTV/
SDTV con lo que los usuarios tendrán que utilizar los comandos
'installtext' y 'ydl480i' para poder instalar y ejecutar el sistema
operativo.[4]

Yellow Dog Linux incluye el kernel núcleo Linux propiamente dicho,
componentes GCC, la biblioteca y tecnología de código libre/abierto
como Apache, PostgreSQL, Python, Webmin, y XFree86. La distribución
también incluye aplicaciones de los usuarios, tales como el navegador
web Mozilla Firefox, OpenOffice.org, Evolution, Rhythmbox, MPlayer,
pidgin, y GIMP.

Yellow Dog Linux es un derivado de Fedora Core y se basa en el gestor
de paquetes RPM. A través de las sucesivas versiones de Yellow Dog
Linux, Terra Soft Solutions ha invertido mucho en la aplicación de
apoyo específicamente para Apple y hardware de IBM. Como resultado de
ello, Yellow Dog Linux soporta la aceleración de hardware de gráficos
y de audio fuera de la caja, a pesar de que algunos otros componentes
de hardware no funcionará adecuadamente sin modificaciones en el
núcleo.

El 6 de febrero de 2008, se lanzó la versión 6.0 de Yellow Dog Linux.

OpenSUSE [editar]

OpenSUSE 10.3 es la primera versión de OpenSUSE compatible con la
plataforma de Sony PlayStation 3. OpenSUSE es una distribución basada
en SUSE Linux, desarrollada por Novell.

Los requerimientos e instrucciones para instalar el OpenSUSE se
encuentran en su página oficial.[5]

RSX Homebrew [editar]

Linux en PlayStation 3 permite una gran variedad de programas caseros
que se desarrollan y es totalmente sancionado por Sony. El rendimiento
del Cell es más que suficiente para manejar la mayoría de los
requisitos de los medios o para rendir 3D los gráficos complejos. Sin
embargo carece el funcionamiento de los teraflops de la textura de un
GPU contemporáneo que trae el hardware. Por esta razón muchos
complejos juegos no son posibles de ejecutar en la PlayStation 3 a
Linux pues el acceso a la aceleración del hardware en el RSX es
restringido por un hypervisor. Se han producido avances en el acceso a
la RSX experimental Linux utilizando un kernel 2.6.24. Aún en las
primeras etapas de desarrollo, la solución permite a Direct Memory
Access (DMA) a la memoria RSX para obtener imágenes allí.

Referencias [editar]

1. ↑ Playstation Manual (How to)
2. ↑ «Yellow Dog Linux launches for PS3» (en inglés).
3. ↑ «Yellow Dog Linux launches for PlayStation 3» (en inglés).
4. ↑ «Terra Soft Solutions» (en inglés).
5. ↑ «OpenSUSE for PlayStation 3» (en inglés).

Véase también [editar]

* PlayStation 3
* Yellow Dog
* Ubuntu

Enlaces externos [editar]

* Yellow Dog 5.0.2
* Cómo instalar Linux en tu PlayStation 3
* Artículo de Linux en el PS3

-
**********************************************************************************_
Kit Linux: El kit Linux está compuesto por un disco duro de 40 GB, un
adaptador de red, un ratón y un teclado USB, un cable VGA y el sistema
operativo GNU/Linux para PlayStation 2, este kit está pensado para
programar, igualmente se puede introducir una distribución de GNU/
Linux llamada Black Rhino (Página de Black Rhino).

-
**********************************************************************************************************_

http://www.ubuntu-es.org/index.php?q=node/60715
[Cómo] Instalar Ubuntu en la Playstation 3
Enviado por zetatron el Sáb, 25/08/2007 - 18:58 Tutoriales y Trucos

Para todos aquellos que tengáis una Playstation 3 y ya los juegos os
aburran tanto que necesitéis una nueva experiencia, o en vuestro afán
por aprender más y más cada día sobre este magnífico sistema
operativo, os pongo un pequeño tutorial que os indicará cómo instalar
Ubuntu en esta videoconsola. Aunque más bien es para aclarar un poco
las posibles dudas, ya que la instalación es tan intuitiva como lo es
en un PC convencional. Os sugiero que leáis el tutorial completo antes
de hacer nada y, si es posible, tenedlo delante durante el proceso.

¿Qué necesitamos?

* Una videoconsola Playstation 3 (obviamente).
* Un teclado y un ratón USB (el ratón puede ser opcional, pero
simplifica mucho las cosas) ya que el mando NO FUNCIONA para este
propósito.
* Un disco de Ubuntu Feisty Fawn cuya imagen podéis descargar
desde AQUÍ. Ojo, los discos tradicionales no valen. Éste está
preparado para que la videoconsola arranque con el disco.
* La videconsola conectada a un router con acceso a Internet
mediante un cable de red.
* Paciencia en bidones de 100 litros (con seis o siete docenas es
suficiente).

Pasos previos

Si la videoconsola es recién comprada, no tendrá nada en el disco
duro. Por tanto no habrá información que os duela perder. En caso
contrario, os recomendaría que antes de hacer esto hiciéseis una copia
de seguridad de esos datos, que suelen ser partidas guardadas y alguna
que otra configuración. Si os da lo mismo, pasad de este punto. Para
hacer la copia de seguridad tendréis que ir a Ajustes -> Ajustes del
sistema -> Herramienta de copia de seguridad, y seleccionáis Crear
copia de seguridad. Necesitaréis un soporte de almacenamiento USB,
dependiendo de la cantidad de información que tengáis necesitaréis más
o menos, y tardará más o menos. No creo que haga falta decir cómo
introducir el USB. Os preguntará "¿Desea crear una copia de seguridad
de la información del disco duro en otro soporte de almacenamiento?",
a lo que respondéis que Sí y os mostrará una lista de dispositivos.
Elegís la que convenga y listo. El backup dura realmente poco, pero
dependerá de la cantidad de información que haya que guardar. Listo
este paso.

La Playstation 3 viene de fábrica configurada para que el disco duro
completo funcione para su sistema operativo, de modo que si vamos a
instalar un nuevo sistema operativo, tocará particionar el disco duro.
Para ello nos vamos a Ajustes -> Ajustes del sistema -> Herramienta de
formateo, seleccionamos Formatear disco duro, y respondemos que Sí.
Nos preguntará si queremos dejar todo el disco duro para el sistema
Playstation3 o queremos hacer un particionamiento personalizado.
Elegimos Personalizados. Nos da de nuevo a elegir si queremos dejar el
disco duro para Playstation 3 o, ahora, si queremos dejar 10GB para el
otro sistema operativo y el resto para PS3 o si queremos dejar 10GB
para PS3 y el resto para el otro sistema operativo (menuda
personalización). Elegimos 10GB para el otro sistema y el resto para
la Playstation 3, y elegimos Formato rápido, que el otro tarda más.

Ahora hay que decirle a la Playstation 3 de dónde queremos que
arranque primero. Para ello nos vamos a Ajustes -> Ajustes del sistema
-> Sistema predeterminado y elegimos Otro sistema operativo. Nos
preguntará si queremos reiniciar en ese momento.

Instalación de Ubuntu

Antes de reiniciar, es necesario tener el disco de Ubuntu en la unidad
y un teclado y un ratón conectados a la consola. El mando NO funciona
en este proceso. Al reiniciar os encontraréis la consola de Linux con
un "kboot:" que os pedirá comandos para arrancar. Tan sólo es
necesario apretar la tecla Intro y comenzará a arrancar el Live-CD.
Hay que decir que, puesto que todo se ejecuta desde el CD el proceso
es realmente lento. Y, por supuesto, olvidáos de probar la aceleración
3D, el sonido o la configuración de red, al menos de momento. Veréis
que el sistema está en inglés, pero no os preocupéis, se puede
instalar en cualquier idioma.

Haced doble clic sobre el icono de Install (Instalar) y seguid los
pasos exactamente igual que como lo hicísteis en vuestro ordenador,
seleccionando el idioma, la hora, la distribución del teclado, etc. En
el particionamiento, hacedlo de manera manual. Veréis que os muestra
sda y sdb, siendo sda el que tiene los 10GB que se asignaron antes. Yo
he particionado con 256MB para la swap al principio del disco y el
resto en ext3 para el directorio raiz, sin carpeta home ni nada. El
resto es todo igual que en PC y el proceso de instalación es un poco
lento y requiere que la consola esté conectada a Internet (para
descargar paquetes de idiomas y demás). Instalación terminada tras
reiniciar. Sacará el disco y listo (si se bloquea en "System will now
reboot", tendréis que apagar la consola con el interruptor de
corriente, en la parte posterior de la máquina).

Tras instalar

Os podéis asustar un poco cuando os vuelva a salir la consola con
"kboot:" y nada de XMB (Xross Media Bar, el sistema de Playstation 3),
ni siquiera un GRUB (que sería lo ideal), pero no hay por qué
preocuparse. Tan sólo hay que escribir "boot-game-os" para que los
flags de arranque se sitúen nuevamente en el arranque de XMB, y
tendréis de nuevo vuestra Playstation 3 como si no hubiera pasado
nada. En la consola el teclado NO ESTÁ CONFIGURADO COMO ESPAÑOL, por
lo que el carácter "-" no está en su sitio. Lo está en el pad numérico
del teclado. Si queréis volver a arrancar Ubuntu, tendrés que volver a
elegir Otro sistema operativo en Ajustes -> Ajustes del sistema ->
Sistema predeterminado, sin ser ya necesario tener el disco de Ubuntu
en la unidad, aunque sí lo es tener el teclado y el ratón conectados.

¿Para qué instalar Ubuntu?

Realmente no es necesario, y más teniendo en cuenta que el hardware es
demasiado "exquisito" como para que Ubuntu funcione en condiciones.
Para jugar, sólo es posible con el sistema de la misma consola, pero
nos permite navegar, chatear y usar las demás apliaciones de Ubuntu.
Además puede servir para modificar o guardar las partidas guardadas
que tengamos en la Playstation 3 (de esto no estoy seguro, pero lo
estoy comprobando). Y hay que tener en cuenta que es muy probable que
sea la única unidad de Bluray que tengamos en nuestra casa, con lo que
se pueden hacer copias de seguridad de nuestros discos BD,
evidentemente en soportes externos con mucha capacidad.

Gracias a Ichi_the_killer por su tutorial, que esperaba que estuviera
ya publicado aquí. No he visto un tutorial parecido en esta página, y
creo que es bueno tenerlo.
-
************************************************************************************-
Yellow Dog Linux 5,0
http://es.wikipedia.org/wiki/Yellow_Dog_Linux

Yellow Dog Linux (abreviado, YDL) es una distribución de Linux creada
para tener soporte para el procesador PowerPC. Se lanzó por primera
vez en 1999 para el Apple Macintosh Inc. Yellow Dog Linux es un
producto de Terra Soft Solutions, Colorado (EE. UU.), una compañía
especializada en software de Linux para la arquitectura Power, y está
basada en CentOS y Fedora.
Distribuida en dos DVD (uno de instalación y otro de fuentes), una YDL
4.1 tiene más de 1000 paquetes. Yellow Dog Linux 5,0 es una de las
primeras distribuciones de Linux para funcionar en PlayStation 3. Se
ha diseñado específicamente para HDTV SDTV con lo que los usuarios
tendrán que utilizar los comandos 'installtext ' y 'ydl480i' para ser
capaz de instalar y ejecutar.

Paulo

unread,
May 12, 2009, 5:00:34 PM5/12/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
Terminar, cerrar, matar procesos o aplicaciones bloqueadas o colgadas
en Linux
de ekl1U www.tuxapuntes.com

Existen varias maneras de forzar el cierre cuando en Linux una
aplicación no responde.

Método 1
Lo primero es abrir una terminal de texto.

Si el equipo no responde, siempre podemos pasar al modo consola
pulsando Control + Alt + F2.


Escribimos:

ps -A


Con esta orden, nos deberá aparecer una lista de todos los programas
que están activos en ese momento. Buscamos el que queremos cerrar y
nos fijamos en los numeritos que le acompañan (el PID).

Si la lista de procesos en ejecución es muy larga y nos cuesta dar con
el correspondiente PID (algo que francamente no creo que pase),
siempre podemos filtrar los resultados que nos muestra la orden ps con
la orden grep (lo que aprende uno leyéndose la ayuda y la
documentación de los diferentes comandos). De esta manera nos enseñará
únicamente el PID exacto del programa que queremos cerrar:

ps -e | grep nombredelprograma


A continuación escribimos:

kill PID


(donde pone PID deberemos poner los números que digo arriba que
aparecerán acompañando al nombre de la aplicación que queremos
cerrar).

Con eso ya habremos "matado" la aplicación.

Una vez cerremos el proceso y terminemos nuestra andadura por el
modo consola, volver a la interfaz gráfica es tan sencillo como pulsar
a la vez Control + Alt + F7.


Método 2
Cuando la aplicación se queda bloqueada pero el equipo sí responde,
podemos abrir una terminal de texto y escribir:

xkill


El puntero se convierte en una cruz y si haces click sobre la ventana
o la aplicación que quieras, se cierra. Esto es equivalente a
colocarnos un acceso directo en la barra de tareas a la herramienta
"forzar cierre" que hace exactamente lo mismo.

Método 3
Si el equipo nos lo permite, siempre tenemos la opción de ejecutar,
también desde una terminal, el monitor del sistema de Gnome:

gnome-system-monitor


desde donde podremos cerrar cualquier programa en ejecución.

Método 4
Por si todo lo de antes te parece demasiado tedioso, siempre podemos
probar a valernos (cuando la situación lo permita) del típico Control
+ C o Alt + F4.

Con suerte, nuestro escritorio será liberado del programa que lo
bloqueaba.
-
******************************************************************************-

Ubuntu one parecido al dropbox (este último es multiplataforma) ver
también ftp vcn vpn
http://www.ubuntips.com.ar/2009/05/11/ubuntu-one-servicio-de-sincronizacion-de-canonical/
Canonical acaba de liberar un servicio de sincronización online
llamado Ubuntu One.

El servicio dispone de 2 planes, uno gratuito donde dispones de 2GB de
almacenamiento y otro pago de 10 dólares mensuales donde dispones de
10 GB mensuales. Los requerimientos para el servicio son: por supuesto
disponer de una conexión a Internet, Ubuntu 9.04 y Firefox o un
navegador que cumpla con los estánda

Paulo

unread,
May 12, 2009, 5:16:04 PM5/12/09
to Asociación Andaluza de Linux (Linux-Sur) (Federación De Asociaciones de Software Libre y GULs)
apuntes de la reunión
Resolver errores de permiso $HOME y .dmrc en Ubuntu
de Obux | Ubuntu y Tecnología de josekont

Después de instalar VirtualBox y compartir toda mi carpeta /home,
Ubuntu me lanzaba el siguiente error:

“Se esta ignorando el archivo $ Home/.dmrc del usuario. Esto impide
que se guarden la sesión predeterminada y el idioma. El archivo
debería pertenecer al usuario y tener los permisos 644. El directorio
personal del usuario no debe ser escribible para otros.“

O lo que en ingles sería:

“User’s $Home/.dmrc file is being ignored. This prevents the default
session and language from being saved. File should be owned by user
and have 644 permissions. User’s $Home directory must be owned by user
and not writable by other users.“

Lo anterior significa que durante el encendido o el comienzo de la
sesión, el sistema detectó un error en la propiedad y/o permisos de la
carpeta $HOME o el archivo .dmrc, aún así podrás tener acceso a tu
cuenta de usuario y tener derechos administrativos (sudo) si estás en
el grupo de administradores, osea el mensajito no te previene de hacer
o dejar de hacer nada; solo es una “advertencia” cada vez que entras.

En Fin, la solución para que desapareciera el tal mensajito (ya que
después de unas 15 veces de verlo te empieza a caer mal) la encontré
en TuLinux y es de lo más sencilla. Solo debes ir a un Terminal
(Aplicaciones → Accesorios → Terminal) y escribes lo siguiente:
sudo chown usuario /home/usuario/.dmrc
chmod 644 /home/usuario/.dmrc
sudo chown usuario /home/usuario
chmod 755 /home/usuario

Donde usuario lo cambias por el usuario de tu sesión. Por ejemplo en
mi caso queda así:

sudo chown josekont /home/josekont/.dmrc
chmod 644 /home/josekont/.dmrc
sudo chown josekont /home/josekont
chmod 755 /home/josekont

Para comprobar si lo hiciste bien, solo debes cerrar la sesión o
reiniciar. Saludos!

-
**************************************************************************-

tutorial completisimo de awm

-
**************************************************************************-
http://www.thecodingstudio.com/opensource/linux/screenshots/index.php

The Coding Studio Screenshots, Pantallazos de muchas “distros”
Publicado Mayo 12, 2009 Linux , Ubuntu 1 Comentario

coding

Distribuciones de Linux (Que si Ubuntu, que si Fedora, que si Debian,
que si Suse, etc…) hay muchas y puede que tu no sepas aun cual es tu
“sabor”. Si aun no te decides y quieres ver Pantallazos de muchas de
ellas para hacerte una idea de como es, conectate a The Coding Studio
Screenshots, las distribuciones vienen numeradas por fechas de
liberacion, asi puedes ver desde las mas nuevas a las mas antiguas.
-
********************************************************************************************-
apuntes HACIENDA PROGRAMA PADRE
http://ubuntulife.wordpress.com/2009/05/10/instalar-programa-padre-renta-2008-en-ubuntu/



Instalar Programa PADRE Renta 2008 en Ubuntu
Publicado Mayo 10, 2009 Linux , Ubuntu 12 Comentarios

Renta2008

Nota: Esta noticia solo para usuarios de España, o aquellos
declarantes de este pais.

Bueno, como todos los años toca pagar impuestos. Y aunque parece que
habra una version del programa PADRE para Linux a partir del 30 de
Abril, yo no la he encontrado, asi que he decidido instalar el
programa PADRE de la Agencia Tributaria mediante wine. Los pasos son
muy sencillos tal y como comenta Oscar del Rio.

Si no tienes wine instalado:

$ sudo aptitude install wine

Tras instalarlo, configuramos wine con el siguiente comando:

$ winecfg

Y en la primera ventana que aparece, en la lista desplegable con el
nombre “Version a imitar”, seleccionamos “Windows 98″. Aceptamos.

Vamos ahora a la seccion Componentes adicionales necesarios y
descargamos los que corresponden a Windows 98 ( DCOM98 y MDAC 2.5 sp2
(2.52.6019.2)). Doble click sobre ellos en el escritorio para que se
instalen.

Ahora nos descargamos el programa PADRE y tambien lo instalamos de
identica manera.

Ahora podemos ir al directorio donde se ha instalado y ejecutarlo. En
mi caso es:

$ cd /home/jose/.wine/drive_c/AEAT/RENT2008
$ wine rent2008.exe &

(Sustituye jose por el nombre de tu usuario)

Si no recuerdo mal, Hay 2 casillas “calientes”; La casilla 738 (para
adquisicion de la vivienda habitual antes del 2006) y la casilla 735
(los famosos 400 euros). En algunos borradores suelen venir mal
(vaya!! que raro, ¿no?). En fin, prestad atencion a esos detalles que
son unos cuantos eurillos que a los que si los necesitamos nos viene
muy bien.

Anexo 1 |

Recordad a todos los que se deducen por el concepto de adquisición de
vivienda habitual y la compraron ANTES del 20 de Enero de 2006, que la
casilla 738 de la página 13 del programa PADRE NO LA INTRODUCE
AUTOMÁTICAMENTE.

Para ello hay que ir al Anexo A, apartado A y clickear en la casilla
correspondiente. El resultado son aproximadamente 250 € más de
devolución individual o 500 € si son 2 los titulares del préstamo y la
presentación es por separado.

Anexo 2 | Casilla 735
12 Respuestas a “Instalar Programa PADRE Renta 2008 en Ubuntu”
Feed para esta Entrada Dirección de Trackback

1.
1 Fran Mayo 10, 2009 a las 9:08 am

Gracias por el manual. A ver si me lo instalo y empiezo a hacer
la declaración.
Responder
2.
2 fabricaldreams Mayo 10, 2009 a las 11:45 am

Buena currada!! Me parece una verguenza que desde el estado se
fomente el software privativo…pero ya estamos acostumbrados por
desgracia.
Responder
3.
3 blogoblo Mayo 10, 2009 a las 2:32 pm

Hola,

No sé hasta qué punto van a permitir que exista una Renta xxxx
que funcione como una aplicación maś en GNU/Linux. Yo no lo creo,
sinceramente. No porque no se pueda hacer, que no tengo dudas de que
sí, sinó por el tema de la confidencialidad, seguridad y restricciones
que implican este tipo de programas.

GNu/Linux se basa, precisamente, en que su código es abierto y
puede ser manipulado ‘facilmente’, etc. Que yo entre en las entrañas
de mi sistema basado en esta plataforma tiene su lógica pero no tanto
que yo pueda manipular un programa que NO debe ser manipulado
absolutamente por nadie, salvo la misma Hacienda.

La compatibilidad que existe actualmente con GNU/Linux es
porque, mediante Citrix, puedes ejecutar el programa Padre conectando
directamente a un servidor de Hacienda.

O como muy bien dices aquí, ejecutándolo mediante Wine (a mi
esta opción no me gusta nada).

Un saludo.

CanihoJR

unread,
May 13, 2009, 11:19:50 AM5/13/09
to linu...@googlegroups.com
Añadir que podemos hacer uso de la aplicación HTOP en modo consola que nos proporciona un monitor de sistema. Con el podemos navegar entre los procesos activos o colgados y matar el que necesitemos con un simple menú. ^^

Para instalar en las mayorias de las distribuciones: $sudo apt-get install htop

Paulo

unread,
Jul 14, 2009, 6:03:43 PM7/14/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
10 cosas que hacer tras instalar Ubuntu
de ekl1ubu Linux AV de ismael

El principal motivo por el que utilizar Ubuntu Linux es que se trata
del sistema más adaptable, económico y productivo que existe
actualmente. Por supuesto, cada uno tiene sus propios motivos para
optar por su propio sistema operativo. Existen aplicaciones sin las
que no podemos trabajar, y en ocasiones esas aplicaciones te atan a un
sistema en concreto. Y la vida es demasiado corta. Yo llevo meses
trabajando con Ubuntu Studio, una adaptación de Ubuntu para la
creación multimedia, la cual te instala de serie todas las
aplicaciones que necesitas para el trabajo con audio y vídeo, más el
kernel realtime que te permite sacarle el máximo rendimiento a tu
instalación de escritorio.

Aún recién instalado el sistema, podría no estar listo para funcionar
a tope. He aquí 10 cosas que deberías hacer para adaptar una nueva
instalación de Ubuntu a tus necesidades.

1.

$ sudo aptitude install sbackup


Nada más terrible que perder tus datos importantes; imágenes,
mensajes de correo, música, documentos, etc. El comando instala Simple
Backup Suite, una genial solución para copias de seguridad en
escritorio. Puedes seleccionar qué directorios quieres salvaguardar —
backup completo o incremental— y luego transferir esas copias a un
almacenamiento externo. Si juegas mucho con tu máquina romperás cosas
a menudo. Con sbackup puedes tener la confianza de que podrás
recuperar tus datos aún si has de reinstalar una aplicación o, peor
aún, el sistema operativo completo.

2.

$ sudo aptitude install ubuntu-restricted-extras && sudo
aptitude install w64codecs


Como te gusta la música, el vídeo, y los contenidos multimedia,
probablemente querrás un conjunto completo de codecs para reproducir
cualquier formato de medios, aún aquellos con problemas de patentes.
Podrías necesitar añadir repositorios externos como medibuntu o EMA
Tech. Ah, si tu sistema es de 32 bits instala w32codecs en lugar de
w64codecs.
3.

$ sudo apt-get install msttcorefonts && sudo fc-cache -fv


En muchas ocasiones es recomendable disponer de las mismas
fuentes que los usuarios de Windows, tanto si eres diseñador web como
si dispones de documentos creados con aplicaciones de Microsoft.
4.

$ sudo aptitude install mplayer


Para no andar con aplicaciones distintas para reproducir
distintos formatos multimedia, mejor instalar una aplicación que pueda
con todo. Como alternativa a mplayer tienes VLC, el cual te permite
incluso difundir tus medios a otros ordenadores en tu red o incluso a
la televisión.
5.

$ sudo aptitude install k3b


Aún el usuario convencido de GNOME estará de acuerdo en que K3b
es la mejor aplicación para quemar tus CDs y DVDs. La interfaz es
condenadamente intuitiva y fácil de utilizar.
6. Activa el sonido surround. Para hacerlo con PulseAudio basta con
editar /etc/pulse/daemon.conf y cambiar la línea que dice:

; default-sample-channels = 2


por

default-sample-channels = 6


7. Utiliza la tecla Windows.

Muchos son más productivos utilizando atajos de teclado en lugar
del ratón. Afortunadamente hay una forma fácil de convertir la tecla
Windows en la tecla Ubuntu.

Visita Sistema, Preferencias, Combinaciones de teclas. Busca
«Show the panel’s main menu» Verás que se indica «Combinación nueva…»

Pulsa ahora la tecla Windows, cierra el cuadro de diálogo y
comprueba que dicha tecla ahora activa el menú de aplicaciones.

Por supuesto, ahora que sabes hacerlo, redefine todo el teclado
a tu gusto.
8. Haz que gedit recuerde más documentos

Si utilizas gedit para editar rápidamente documentos, puedes
cambiar el número de documentos recientemente abiertos que recuerda
para ahorrarte en lo posible andar navegando por el sistema de
ficheros. Haz:

$ sudo gconf-editor


En la ventana que aparece selecciona apps, gedit2, preferences,
ui, recent y ahora cambia max_recents de 5 a 10. O los que necesites.
9. Aumenta la velocidad de tu sistema con CPU multi núcleo

Si haces esto en un sistema con sólo una CPU sólo lo
ralentizarás. Si tienes una CPU multi core, puedes hacer que los
servicios arranquen en paralelo. Edita como root el fichero /etc/
init.d/rc y cambia CONCURRENCY=none por CONCURRENCY=shell. Reinicia el
sistema.
10. Utiliza aplicaciones para otro sistema operativo.

La virtualización es la solución. Ya no necesitas WINE ni
reiniciar en otro sistema operativo. Mejor utiliza VirtualBox. QEMU
también es magnífico, aunque quizás algo más experimental.

$ sudo aptitude install virtualbox


Un truco extra

Ésta es una forma rápida de desinstalar un paquete .deb:

sudo dpkg -r nombre_paquete


De una idea de Ubuntu Linux Help. Gracias linuxnetbook.

Paulo

unread,
Jul 14, 2009, 6:09:02 PM7/14/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
https://addons.mozilla.org/es-ES/firefox/addon/11998

en Truquitos Ubuntu.
Existe un complemento para Firefox que elimina los limites impuestos
por las plataformas como Megaupload,Megavideo,Megaporn y
Rapidshare.Sólo tienes que instalarlo desde AQUI.Y a disfrutar las
peliculas completas;-)

Paulo

unread,
Jul 16, 2009, 10:37:43 AM7/16/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
KMS KERNEL MODE SETTINGS
http://www.muylinux.com/2009/07/16/kernel-mode-setting-en-ubuntu-ni-te-daras-cuenta/

Kernel Mode Setting en Ubuntu. Ni te darás cuenta.
Publicado por Picajoso el 16 July, 2009 en Ubuntu, kernel - 3
Comentarios

En la evolución de nuestro sistema operativo favorito hay tecnologías
de las que se habla mucho y que luego parecen no causar demasiado
impacto al usuario. Kernel Mode Setting (KMS) será un ejemplo perfecto
de esa circunstancia, ya que a pesar de su relevancia en muchos
aspectos, los usuarios no se verán especialmente afectados.

http://www.phoronix.net/image.php?id=ubuntu_904_nouveau&image=ubuntu_nouveau_1

De hecho, es probable que aquellos que acaben utilizándola ni siquiera
se den cuenta de que están aprovechando esa característica, que
entrará a formar parte de Ubuntu 9.10 Karmic Koala y que ayudará a
resolver algunas limitaciones del controlador de vídeo X11 que se
venía utilizando hasta ahora. En el vídeo que mostramos a continuación
se ve que, en esencia, Ubuntu seguirá siendo lo mismo en ese apartado
gráfico.

http://people.freedesktop.org/~glisse/blog/090430-radeon-newttm.jpg

Lo explican muy bien en WorksWithU, donde indican que Kernel Mode
Setting es una tecnología que permite que sea el kernel -y no el
citado driver X11- el encargado de manejar el modo gráfico de la
consola. Esto reduce carga en el sistema, y permite que ciertas
operaciones se realicen algo más deprisa. Pero también ayuda a los
desarrolladores a solucionar problemas del kernel cuando el sistema de
ventanas X está ejecutándose.

Sin embargo, apenas notaremos diferencias, salvo quizás mejores
tiempos cuando realizamos el cambio de un usuario a otro en la misma
máquina, algo que no utilizamos muchos de nosotros pero que es una
consecuencia directa de la aplicación de KMS. Se puede apreciar esa
mejora en el siguiente vídeo, publicado también en WWU.

La característica estará habilitada para chipsetes gráficos de Intel
en Ubuntu 9.10 (y probablemente otras distros), pero aún no hay fecha
para el soporte de dicha tecnología en chips gráficos de ATI o NVIDIA.
No llegará en Karmic, dicen, pero ese soporte ya está en marcha así
que puede que sí caiga en Ubuntu 10.04.

Paulo

unread,
Aug 30, 2009, 5:14:36 AM8/30/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
09
¿Microsoft compró a Apple?
Como primera aportación a este blog, me gustaría tratar un tema que me
han preguntado en numerosas ocasiones y que he explicado bastantes
veces. La pregunta básicamente consiste en si es verdad que Microsoft
compró Apple Computer allá por el ya lejano 1997, y la respuesta es
no.

Para poder entender el momento y los acuerdos a los que se llegaron
tenemos que remontarnos bastante en el tiempo, hasta los primeros años
80. Pese a que los comienzos de Apple con el Apple I y posteriormente
el Apple II en 1976 y gran parte de 1977 no fueron especialmente
brillantes, poco a poco el Apple II fue ganando cuota de mercado y
llegó a convertirse en el número 1 hasta la llegada del IBM PC en
septiembre de 1981.

Aunque la irrupción del ordenador de IBM cogió con relativa sorpresa
el mundo de los microordenadores, en realidad Apple ya llevaba varios
años trabajando en varios modelos que ampliarían la oferta de la
compañía en varios frentes. Tres eran los ordenadores proyectados por
Apple, el Apple III que recogía el listón del Apple II y evolucionaba
el concepto de este para convertirlo en un ordenador más profesional,
el Apple Lisa que iba a ser la joya de la corona y por último un
tercer proyecto llamado Macintosh que apunto estuvo en varias
ocasiones de ser cancelado.

Steve Jobs, cofundador de Apple Computer y chairman de Apple,
trabajaba dentro del grupo del Lisa, pero digamos que de alguna manera
fue expulsado del proyecto y acabó dirigiendo el proyecto Macintosh
desbancando con ello al fundador original, Jef Raskin. Steve Jobs
sabía por su experiencia con el Apple II que lo que se conoce como las
third parties eran fundamentales para el éxito de un ordenador, es
decir, la máquina es importante, pero el software puede vender tantos
ordenadores como el mejor hardware. Por lo tanto, era esencial para
Jobs que los líderes de software del momento portaran sus principales
programas y crearan otros nuevos, de forma que los primeros
compradores se sintieran suficientemente arropados.

Por eso, Steve Jobs contactó con los principales fabricantes de
software del momento, gente como Mitchell Kapor, el fundador de Lotus
y en aquel momento el mayor fabricante de software o Bill Gates, co-
fundador de Microsoft Corporation y el principal fabricante de
lenguajes de programación para microordenadores (no en vano, el BASIC
de Microsoft era el estándar de facto).

En cuanto a estos tres proyectos mencionados, el Apple III tuvo
numerosos problemas iniciales por graves errores de diseño, que si
bien fueron rápidamente subsanados le dieron tan mala fama al
ordenador que Apple decidió comercializar los siguientes modelos del
Apple III bajo el nombre de Apple II.

En cuanto al Apple Lisa, era un proyecto tremendamente ambicioso, pero
su escasa velocidad y su desorbitado precio (casi $10.000 de la época)
hicieron que se vendieran muy pocas unidades. Finalmente, llegó la
última esperanza de la manzana, el Apple Macintosh, un ordenador a
caballo entre el Apple II y el Apple Lisa, que si bien consiguió un
gran impacto gracias a una acertadísima campaña de marketing sus
ventas tardaron tanto en despegar que acabaron provocando la salida
forzada de Steve Jobs de Apple.

Por si fuera poco, Microsoft había aprovechado los prototipos de
Macintosh no sólo para desarrollar software para este sistema, sino
también para crear su propio sistema de ventanas al que llamó Windows
y que finalmente comercializó en 1985, un año y algo después del
Macintosh.

Aunque la primera versión de Windows era realmente desastrosa, fea
como ella sola, lenta y plagada de bugs, para la segunda versión la
calidad del producto aumentó considerablemente. Aún estaba muy lejos
de llegar al nivel del entorno gráfico de Apple, pero desde Cupertino
no se hicieron ilusiones y comprendieron que sólo era cuestión de
tiempo que Microsoft sacara algo que pudiera competir de tú a tú con
Mac y por lo tanto demandó a Microsoft por infracción de copyrigth.

Volviendo a 1984, las ventas del Macintosh iniciales fueron
espectacular, pareciendo que podrían conseguirse los ambiciosos
objetivos marcados por Steve Jobs. Sin embargo, a medida que pasaba el
año 1984 las ventas fueron ralentizándose, provocando una profunda
crisis en Apple, pues todavía seguía dependiendo del Apple II para
mantenerse a flote económicamente hablando y este ya empezaba a
mostrar signos de debilitamiento.

Finalmente, El Macintosh encontró su killer application con los
programas de autoedición, para lo cual estaba especialmente bien
dotado por su envidiable interfaz gráfico. Así, Apple remontó el vuelo
y, aunque perdía cuota de mercado a pasos agigantados, no preocupaba
en Cupertino puesto que los beneficios de la compañía eran asombrosos.

Sin embargo, una vez entrados los años 90, empezaron los problemas de
verdad. Tras la salida al mercado de Windows 3.0, la ventaja
competitiva de Apple en el terreno de los interfaces gráficos ya no
era tan grande. Sí, MacOS seguía siendo mejor, pero ya no tanto, así
que poco a poco los PCs con Windows iban sustituyendo los otrora
omnipresentes ordenadores de la manzana en el mundo de las artes
gráficas.

Apple dio varios tumbos intentando encontrar diversas salidas a su
situación, probó suerte con varios presidentes, aliados, tecnologías y
sistemas de venta, hasta que finalmente, en 1997, Steve Jobs, que
estaba fuera de la compañía desde 1985, volvió como CEO interino a
Apple tras la compra de esta de la empresa NeXT, de la cual Jobs era
el fundador.

Con NeXT, Apple compraba un sistema operativo nuevo, estable y muy
potente que permitiría jubilar al anciano, vetusto y obsoleto MacOS 7,
aunque aún tardarían unos años en ver sus frutos esta inversión con
MacOS X. Sin embargo, en 1997 los principales problemas de Apple no
estaban en MacOS X sino en que desde hacía años no hacía más que
perder dinero, socios y usuarios. Incluso se rumoreaba que ningún
banco estaba dispuesto ya a financiar a la empresa, previendo su
quiebra en breve. Steve Jobs tenía que hacer algo si no quería ver
cómo Apple se hundía definitivamente. Y ahí entró Microsoft.

Como primer paso, Apple necesitaba confirmar a los principales
desarrolladores para Mac que seguirían apoyando a la plataforma. Jobs
se reunió con todos y cada uno de los presidentes de las principales
compañías de software para Mac para que públicamente mostraran su
apoyo. La idea era muy clara: el software para Mac no se va a acabar,
invertir en la plataforma no es tirar el dinero.

Curiosamente, algo que por lo visto mucha gente no sabe, el principal
fabricante de software para Mac, aparte de la propia Apple, era en
1997, y sigue siéndolo, Microsoft. Microsoft Word o Microsoft Excel
salieron para Mac bastante antes que para Windows, y después se portó
al entorno de las ventanas.

Así que en la keynote de agosto de 1997 en Boston, famosa porque entre
otras cosas aparece Bill Gates en pantalla gigante por
videoconferencia, se anunció el acuerdo entre ambas compañías. Dicho
acuerdo constaba de los siguientes puntos:

* Microsoft se comprometía a desarrollar su paquete de ofimática
Microsoft Office para Mac durante un periodo de 5 años. Toda
actualización mayor de Office para Windows debía ir seguida también de
una actualización mayor de Office para Mac y compatible con su versión
de Windows
* Microsoft adquiería un paquete accionarial de Apple valorado en
150 millones de $. Estas acciones, sin embargo, eran sin derecho a
voto, de forma que Microsoft en ningún momento podía interferir en la
dirección de Apple
* Apple retiraba todas las demandas por violación de copyright
para siempre (¿os acordáis de las demandas de 1987 por Windows? Pues
principalmente, esas).
* Todos los ordenadores Macintosh a partir de ese momento vendrían
de serie con el navegador Internet Explorer, aunque, a diferencia de
la versión de Windows, no sería el sistema operativo dependiente del
mismo de forma que podría borrarse e instalarse cualquier otro que se
quisiera.



Básicamente, los acuerdos a los que se llegaron fueron estos. Ahora,
la explicación de en qué beneficiaba cada punto a las dos empresas.

Microsoft Office era el estándar de facto en el mundo de los paquetes
ofimáticas (y sigue siéndolo, por cierto), de forma que carecer de una
versión del mismo compatible con la de Windows habría supuesto un
golpe realmente durísimo para Apple, pues todo aquel que utilizara su
ordenador para temas ofimáticos tendría muy poquitos motivos para
comprarse un Macintosh. Sin embargo, este compromiso tampoco era algo
que preocupase a Microsoft, pues la sección de Office para Mac siempre
había sido rentable, y de hecho una vez finalizados los 5 años del
acuerdo Microsoft ha seguido desarrollando al mismo tiempo el Office
para Mac y el de Windows. Simplemente, Apple con este movimiento lo
que conseguía era el compromiso escrito y por lo tanto la tranquilidad
del consumidor, mientras que para Microsoft todo seguiría igual.

Con la compra del paquete de acciones de Apple probablemente haya sido
el motivo por el que muchos pensaron que Apple había sido comprada por
Microsoft. Nada más lejos de la realidad, Microsoft si bien sí compró
un buen pedazo de Apple en ningún momento tuvo el control de la
compañía, la cual siguió siendo su competencia (toda la competencia
que pueda ofrecer una cuota de mercado del 3 o 4 % frente a más del 90
%). En cualquier caso, Microsoft a día de hoy no conserva estas
acciones, aunque no tengo datos de cuándo fueron vendidas y a quien.

¿Qué ganaba Apple con esto? Pues básicamente estabilizar la cotización
de la empresa. Sus acciones no levantaban cabeza desde muy principios
de los 90 y cada vez quedaban menos inversores dispuestos a
arriesgarse con Apple, por lo que tener el respaldo del músculo
financiero detrás podría hacer (y de hecho hizo) que los accionistas
le dieran una oportunidad.

¿Y llevar Microsoft Internet Explorer en todos los Macs? Dado que es
un programa gratuito, ¿en qué beneficiaba a Microsoft o a Apple? Apple
sencillamente en nada, aparte de asegurarse que Microsoft seguiría
desarrollándolo en vez de dejarlo olvidado. De hecho, hasta la salida
del sistema operativo Tiger en mayo del 2005 todos los ordenadores Mac
siguieron viniendo con Internet Explorer de serie instalado.

A Microsoft en aquel entonces le interesaba este acuerdo porque la
guerra de los navegadores estaba desatada y aún Netscape iba en cabeza
con su Netscape Navigator. Todos los ordenadores Windows iban a llevar
de serie Microsoft Internet Explorer, y con este movimiento Gates se
aseguraba que todos los Macs también, de forma que si bien la gente
podía seguir utilizando el navegador de Netscape no tendrían muchos
incentivos en hacerlo puesto que a fin de cuentas ya tenían un
navegador instalado en su ordenador, el Internet Explorer. No sé hasta
qué punto por la cuota de mercado de Mac y la rivalidad existente este
movimiento fue beneficioso para Microsoft, pero en cualquier caso
Internet Explorer fue ganando cuota de mercado a pasos tan agigantados
que Netscape se vio obligada a presentar una demanda al gigante de
Redmon.

Antes, cuando he mencionado en qué podía beneficiar a Microsoft
comprar 150 millones en acciones que no daban derecho a prácticamente
nada, si lo unimos todo a la situación de Microsoft comprendemos por
qué a Bill Gates le resultaba interesante esta inversión. Cuando
Microsoft fue demandada por monopolio, uno de los motivos alegados por
la defensa fue que qué clase de monopolista era Microsoft si incluso
ayudaba casi altruísticamente a su principal competidor, Apple, a
mantenerse a flote y seguir compitiendo contra él. Pensemos que Linux
en aquellos entonces no era considerado competencia por Microsoft, y
no digamos ya por Apple. Y si tenemos en cuenta que se llegó a hablar
de partir la compañía en varias subempresas diferentes, una inversión
de 150 millones de $ era casi calderilla al lado de lo que se estaba
jugando Microsoft con sus acusaciones de monopolio

Así que ya sabéis, si alguien os vuelve a decir que Microsoft compró a
Apple, podéis decir sin temor a equivocaros que es totalmente falso.
En cualquier caso, os dejo el momento en que se anuncia el acuerdo
entre Microsoft y Apple, a ver qué os parece:

Publicado por Vampirro en 23:51
Etiquetas: Apple, Microsoft, Mitos informáticos
22 comentarios:

Mr Blogger dijo...

Interesante historia. Yo había oído que fue gracias a la pasta de
microsoft y que esta entrara en juego que habían colocado de nuevo al
señor Jobs como presi en Apple (una suerte de justicia poética, dado
su relación en el pasado y eso), veo que estaba equivocado.
8 de agosto de 2009 22:19
Danilo Domínguez P. dijo...

Muy interesante tu artículo. Gracias por compartir esta
historia :)
9 de agosto de 2009 0:07
Kmaxxo dijo...

Destacar lo bien que está estructurado del artículo y además me ha
sido de gran utilidad para muchas preguntas que tenía acerca del tema.
Te lo agradezco y suerte con el blog! entraré a leerte.

Un saludo!
9 de agosto de 2009 1:38
Gabo el Malo dijo...

es sumamente interesante este articulo.

habria que acotar aca que durante mucho tiempo fue las soluciones
de adobe para mac las que lo mantuvieron a flote.

durante mucho tiempo photoshop era exclusivo de mac aunque a
posteriori se creo su version para windows
9 de agosto de 2009 2:09
AlejandroFlores dijo...

Que articulo tan bueno e interesante !
te felicito !

Voy a poner este blog en mis favoritos ! jjj
9 de agosto de 2009 4:39
Dereck dijo...

Que buena historia nunca habia escuchado esta historia sera
posible ver el video subtitulado al español??
9 de agosto de 2009 6:19
Vampirro dijo...

Hola Gabo.

Efectivamente, Apple ha vivido unos años gracias a Photoshop, pero
también gracias a aplicaciones de maquetación tipo Quark Express y
similares.

Dejémoslo en que su nicho de mercado eran las artes gráficas en
general :)
9 de agosto de 2009 9:33
sergio dijo...

Muy bueno el articulo, me gusta ir uniendo el rompecabezas sobre
la historia de estos dos grandes, les recomendaria la pelicula
Sillicon Valley en la que trata la historia de Steve J y Bill G desde
que iban a la universidad y como entran empresas como xerox a
revolucionar la historia de la computacion, espero que subas mas de
estos y felicidades por lo bien que hiciste este articulo.
9 de agosto de 2009 18:18
Vampirro dijo...

Muchas gracias a todos los que habéis posteado, la verdad es que
ha sido una sorpresa muy grata y agradable ver el buen recibimiento
que me habéis otorgado :)
9 de agosto de 2009 20:02
Javi Báez dijo...

Que interesante historia, aun cuando parece que ambas empresas no
sacarían mucha ventaja de un trato así, al final nos damos cuenta de
que ambos salieron ganando de una forma muy inteligente
9 de agosto de 2009 20:53
VCF dijo...

Tengo entendido que el Apple I. Nunca existió. Salir directamente
con el Apple II fué una idea de marketing para dar imagen de veteranía
desde el principio.
9 de agosto de 2009 21:51
Vampirro dijo...

Hola VCF.

Sí, el Apple I existió. Uhm... de hecho, estoy pensando que la
fundación de Apple y sus primeros pasos puede ser un buen tema para
otra de las píldoras de este blog :)
9 de agosto de 2009 21:58
Mathias Cenas dijo...

Buenisima la historia, muy buena la redaccion tambien, llegue a
aqui gracias a barrapunto, y ya soy seguidor! excelente, esperamos con
ansia nuevas historias! felicitaciones
9 de agosto de 2009 23:11
Jonathan dijo...

Interesante historia. Interesante como Bill siempre se movió un
paso adelante para asegurarse de su hemegonía.
10 de agosto de 2009 2:30
ocell dijo...

Quería puntualizar que todos (Apple, Microsoft, etc.) Deberían dar
las gracias a la gente de PARC (Xerox) por haber "regalado" el entorno
gráfico.
10 de agosto de 2009 11:08
Vampirro dijo...

A diferencia de lo que se cree, Xerox no "regaló" el entorno
gráfico. Otra cosa es que el precio pagado fuera bastante pequeño,
pero esa es otra historia... que tendrá su entrada tarde o temprano :)
10 de agosto de 2009 11:12
Manuel Rodriguez dijo...

Excelente articulo. Felicitaciones por tan amena e interesante
historia asi como la manera de redactarlo.
10 de agosto de 2009 15:21
Henry dijo...

Excelente artículo, deja claras muchas dudas que tenía, gracias
10 de agosto de 2009 17:03
doland dijo...

Apple compró el Centro de Palo Alto y por extensión a Xerox… De
hecho, durante un tiempo, hasta las Laser Writer 300 de Apple eran en
realidad Xerox, aunque lo que le interesaba a Apple de Xerox eran su
nuevo entorno gráfico (génesis del MacOS) y el ratón, herramientas
fundamentales para que el usuario perdiera el miedo a la informática,
pues no olvidemos que en aquella época usar un ordenador, además de
costoso (unos 3.000 € de media), era complicado. Por cierto, jamás he
visto máquinas a nivel usuario más completas y bonitas que los Macs…,
de hecho yo tengo cinco, je…, desde un Mac Plus a un Mac Pro, y lo
recomiendo.
10 de agosto de 2009 22:14
Nestor Velazquez Sanchez dijo...

¿Quien lo diriá?
¿Por eso los ridiculos spots en TV no le pegan tanto a PC comun?
deberia, en fin mal harian en no juntarse se deberian llamar
Micropple MacoSoft
13 de agosto de 2009 17:28
Adrian Ortiz dijo...

Que puedo decir es una excelente explicación muchas dudas
aclaradas.

me compre mi primer ordenador por ser bonito y al encenderlo
descubrí un nuevo mundo mac os x. Tiger me asuste un poco pero después
de usarlo unos minutos descubrí que era fácil de usar y con el tiempo
descubrí que las aplicaciones que llegue a usar en Windows se
encontraban en mac. es mas encontré mejores y muchas de ellas eran
gratis y las de pago el precio es tan accesible que lo que gastas es
como un gracias por tu ayuda.

Son caros pero a mi no me importa el precio si no el gusto de que
lo que e invertido realmente lo vale.
17 de agosto de 2009 2:03
akasico1 dijo...

Felicidades. Estaria bueno que hicieses una pildora sobre la
diferencia de MacOS con otras familias Unix (gnu/linux,bsd, solaris,
etc)
http://pildorasdehistoria.blogspot.com/2009/07/microsoft-compro-apple.html

Paulo

unread,
Sep 3, 2009, 6:10:03 PM9/3/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
script automount

creas un archivo nuevo que se llame..... loqsea.sh a!escribes todo eso
y luego copias el archivo dentro de la carpeta /etc/init.d/local
asi cada vez q inicies el PCse ejecutará el script y estará atento a
lo q se introduzca :D


#!/bin/bash

MOUNTPOINT=/mnt/usbkey
IAM=$0

function allAttachedScsiUsb {
find /proc/scsi/ -path '/proc/scsi/usb-storage*' -type f
}
function scsiDevFromScsiUsb {
echo $1 | awk -F"[-/]" '{ n=$(NF-1); print "/dev/sd" substr
("abcdefghijklmnopqrstuvwxyz", n+1, 1) }'
}
if [ "${ACTION}" = "add" ] && [ -f "${DEVICE}" ]
then
for procEntry in $(allAttachedScsiUsb)
do
if [ -f /var/run/console.lock ]
then
CONSOLEOWNER=`cat /var/run/console.lock`
elif [ -f /var/lock/console.lock ]
then
CONSOLEOWNER=`cat /var/lock/cosnole.lock`
else
CONSOLEOWNER=
fi
scsiDev=$(scsiDevFromScsiUsb $procEntry)
/sbin/fdisk -l $scsiDev >/dev/null
if grep -q `basename $scsiDev`1 /proc/partitions
then
part="$scsiDev""1"
else
part=$scsiDev
fi
if [ ! -z "$CONSOLEOWNER" ]
then
chown $CONSOLEOWNER:disk $part
fi
if ! grep -q "^$MOUNTPOINT" /etc/mtab
then
mount $MOUNTPOINT
fi
done
if [ ! -z "$REMOVER" ]
then
mkdir -p `dirname $REMOVER`
ln -s $IAM $REMOVER
fi
elif [ "${ACTION}" = "remove" ]
then
if grep -q "$MOUNTPOINT" /etc/mtab
then
umount -l $MOUNTPOINT
fi
fi
-***********************************************************+
http://pastebin.com/m61c259c3
by caniho!! thx from Paulo

Paulo

unread,
Oct 16, 2009, 6:00:13 PM10/16/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
NUMA, ese gran desconocido
Publicado por thrash el 21 de May de 2008 en Arquitectura NUMA - 5
Comentarios

Hoy en día se han puesto de moda los clusters, pero muchas veces no
son la solución ideal. No es que los clusters sean una mala opción, es
que muchas veces se utilizan en entornos donde no se deberían
utilizar, por eso voy a hablar de otra tecnología que a veces puede
venir bien.

Un cluster no es más que la unión de varios ordenadores para resolver
una tarea. La filosofía detrás de esta idea es que se puede dividir la
tarea que queremos ejecutar en tareas menores, cada ordenador del
cluster procesará esa “sub-tarea” y cuando todos hayan acabado, se
junta toda la información para obtener el resultado final. Esto se
suele hacer en entornos científicos, entornos de diseño gráfico 3D, en
bases de datos, … Como he dicho antes, los clusters se han puesto de
moda y no siempre es la mejor solución, incluso se pasan por alto
cosas muy importantes como:

* La conectividad: la conectividad entre los diferentes nodos es
muy importante ya que los nodos van a enviarse información de uno a
otro.
o Si esta conectividad tiene un ancho de banda pequeño y/o
una latencia grande, la información tardará mucho en llegar. Mucha
gente se fija sólo en el ancho de banda y se olvida por completo de la
latencia … mal, el ancho de banda se puede arreglar, pero la latencia
es para siempre.
o También hay que tener en cuenta que no vale con enchufar
todos los nodos a un único switch ya que podemos encontrarnos que el
ancho de banda no es el esperado. Esto se debe a que se pueden
producir situaciones de bloqueo, es decir, el número de conexiones
entrantes y salientes no es el mismo: unas conexiones (las que
escasean) bloquean a las otras. Esto se debe a la topología que se
utilice a la hora de diseñar/construir el cluster: fat-tree,
hypercube, …
o No debemos utilizar una única red ya que por ella tiene
que pasar mucha información: los propios datos, comandos de
monitorización, peticiones al almacenamiento, … Si tenemos una única
red, saturaremos dicha red con datos que posiblemente sean
innecesarios. Es decir, el cuello de botella puede ser la propia red.
* El problema que se quiere resolver. Hay problemas que se pueden
dividir en tareas menores independientes entre sí, pero hay otros
casos en los que no es posible: procesos paralelizables (apilar cajas:
una persona apila cajas a una velocidad y dos personas apilarán cajas
al doble de velocidad), pero hay otros procesos que NO son
paralelizables (una mujer tarde 9 meses en tener un hijo, pero 9
mujeres NO tardan un mes en tener un hijo). Sí, ya sé que no son
ejemplos relacionados con la informática, pero son ejemplos que todo
el mundo ha entendido ;)
* No nos debemos olvidar de la gestión del cluster: administrar 4
nodos es algo pesado, pues imaginaos si hay que administrar 4.000
nodos, cada uno con su sistema operativo, sus mensajes de log, …

Cluster

Como vemos, montar y gestionar un cluster no es tan sencillo ni tan
bonito como parece. Por eso os voy a hablar de otra tecnología menos
utilizada que puede ser interesante: NUMA. UMA es una tecnología
antigua en la que todos los procesadores comparten la misma memoria.
El tiempo de acceso a la memoria es independiente de dónde se
encuentre un procesador, lo mismo ocurre con los privilegios: todos
los procesadores tienen el mismo “derecho” de acceder a una zona de
memoria. Esta tecnología es la que conocemos todos y, en principio
parece ser la correcta. Pero, hay casos en los que no todos los
procesadores deberían tener el mismo “derecho” ya que a lo mejor uno
está procesando más que otro y, o bien requiere una mayor velocidad o
bien requiere una mayor cantidad de meoria en un determinado momento,
pero otro procesador la tiene reservada. Obviamente, ni que decir
tiene que como todos los procesadores además comparten el mismo bus …
la escalabilidad es cuestionable.

Para solucionar esto y los casos que no resuelven los clusters,
tenemos NUMA. En los sistemas con arquitectura NUMA, el tiempo de
acceso y los “derechos” que tiene un procesador tiene sobre una zona
de memoria dependen de dónde se encuentre el procesador y la memoria
o, dicho para colegas, a qué distancia está el uno del otro. Ojo, no
quiero decir distancia en metros de cables/buses sino en “hops”.

En una arquitectura NUMA hay que distinguir una serie de elementos:

* memoria local: en la arquitectura NUMA nos encontramos que la
memoria puede estar asociada a un procesador o no. Si hablamos de la
memoria asociada a un procesador, hablamos de memoira local
* memoria remota: por eliminación, esta será la memoria no
asociada a un procesador
* distancia: cuando hablamos de distancia, generalmente se hace
referencia al número de hops que tiene que darse hasta llegar a un
dispositivo, memoria o CPU. Cuantos más hops haya que dar … más remota
será esa memoria (o dispositivo).
* nodo: este concepto ya es más complicado porque depende de cada
fabricante. Podemos hablar, por norma general de nodo cuando nos
referimos a un conjunto: CPU+RAM local.

Vamos a ver si lo podemos entender mejor lo ed la memoria. En un
sistema UMA, toda la memoria es local ya que todos los procesadores
pueden acceder a ella por igual gracias a un único bus.

Arquitectura UMA

En cambio, en una arquitectura NUMA, cada procesador tiene una
cantidad de memoria asociada a él, cada procesador tiene un bus que le
conecta con “su” memoria. Ya podemos ver la principal ventaja: no hay
competición por la memoria por parte de los procesadores. Esta sería
la memoria local. Además, puede haber una memoria global compartida a
la que cualquier procesador puede tener acceso a ella sin
distinciones, esta sería la memoria remota.

Arquitectura NUMA

Vamos a complicar un poco más la definición de memoria remota, ¿puede
un procesador pedirle a otro procesador que le deje su memoria? La
respuesta es sí. Imaginémonos el procesador P1 con su memoria M1 que
no está haciendo absolutamente nada. Además tenemos el procesador P2 y
su memoria M2, este procesador está “asfixiado” con todo lo que tiene
que hacer y tiene la memoria saturada. En este caso P2 puede pedirle a
P1 permiso para usar la memoria M1. M1 sería memoria remota para P2.

La gran pregunta ahora es, ¿pero esto no es lo mismo que un cluster?
No. La gran diferencia entre un cluster y un sistema NUMA es que en un
sistema NUMA hay una única imagen de kernel ejecutándose (sólo hemos
instalado un sistema operativo) mientras que en un cluster hay
múltiples imágenes de kernel ejecutándose al mismo tiempo (hemos
instalado varios sistemas operativos). O, lo que es lo mismo, en un
cluster, cada nodo es una entidad propia que hay que gestionar
mientras que en un sistema NUMA cada nodo es un componente de un único
sistema que hay que gestionar.

Arquitectura cluster

La pregunta ahora es, ¿por qué/cuándo debería usar NUMA? Muy fácil:
cuando quieras escalar de forma sencilla y rápida. Recordemos: escalar
en un cluster no es fácil, debido principalmente a los problemas que
nos supone la conectividad y la gestión del conjunto de ordenadores
del cluster. En el caso de los sistemas NUMA, la complejidad de la
gestión se ve reducida ya que sólo administramos un equipo, en cuanto
a la conectividad, tampoco es un problema porque cada nodo tiene su
memoria y en principio no utilizará la memoria remota. En caso de
utilizar la memoria remota, la conectividad se hace internamente
mediante buses de elevado ancho de banda y muy baja latencia.

¿Qué tiene que ver todo esto con Linux? Bueno, recordemos que NUMA es
una arquitectura hardware y que necesita un sistema operativo. Luego
la respuesta es que Linux sí tiene herramientas y código específico
para correr en este tipo de arquitecturas. Esto, suponinedo que vamos
a adquirir un sistema NUMA propietario porque también es posible
montar uno “casero” con herramientas de software libre y/o
distribuciones específicas como: DragonflyBSD, openSSI, Kerrighed, …

Linux y NUMA

Muy importante, NUMA no es la solución a todos nuestros problemas,
igual que no lo es un cluster. Hay cabida y necesidad para cada una de
estas tecnologías y otras que no he mencionado ;) Y sí, trambién se
puede montar un cluster con sistemas NUMA, es deicr, tener varias
máquinas NUMA y montar un cluter con ellas :)

Bueno, espero haberos despertado la curiosidad por arquitecturas
nuevas. Como siempre os dejo unos cuantos enlaces para que vayáis
leyendo.

* Herramientas NUMA en Linux y sus FAQ
* Hay una tesis muy interesante titulada “Impacto del subsistema
de comunicación en el rendimiento de los computadores paralelos: desde
el hardware hasta las aplicaciones“
* Oracle y NUMA:
o Parte 1
o Parte 2
* NUMA en Wikipedia

http://www.muylinux.com/2008/05/21/numa-es-gran-desconocido/

Paulo

unread,
Oct 16, 2009, 7:50:21 PM10/16/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
tag festival lsr aoss
EntretenimientoHAZ HABLAR A TU COMPU........
Autor: rodmen82 | Lecturas: 747 | | lunes, 12 de octubre 2009 @ 10:23
CDT |

Como usuario de linux algunas veces estamos muy solos y no tenemos a
nadie a nuestro lado para platicar o minino alguien para que nos
motive y solamente tenemos nuestra máquina en frente y nadie mas. Pues
entonces haremos hablar a nuestra máquina para no sentirnos solos.



Lo que tendremos que hacer es instalar los siguientes paquetes en
nuestra distribución de debian, ubuntu y derivados.

ascariote:~# apt-get install alsa-oss espeak

Ya teniendo instalados los paquetes ahora haremos hablar o cantar a
nuestra máquina sin usar el método tradicional del Tehuacán y chile
piquin.

1) Enseñando hablar a nuestra máquina

ascariote@ascariote:Desktop$ aoss espeak -ves -p20 ?Hola,Ascariote
ascariote@ascariote:Desktop$ aoss espeak -ves -p20 ?
jajaja,jajajaja ,jojojo

2) Hay ocasiones que habla muy rápido, para esto mejor le enseñaremos
a pronunciar con pausas

ascariote@ascariote:Desktop$ aoss espeak -ves -p20 -s 120 ?
trabaja,como,negro,y,gana,como,pobre
ascariote@ascariote:Desktop$ aoss espeak -ves -p20 -s 100 ?
trabaja,como,negro,y,gana,como,pobre

3) También podremos enseñar otro idioma extra a nuestra máquina para
que se haga bilingüe, en nuestro caso el ingles.

ascariote@ascariote:~$ aoss espeak -ven -p20 -s 100 ?
trabaja,como,negro,y,gana,como,pobre

Paulo

unread,
Nov 6, 2009, 1:36:58 PM11/6/09
to Linux-Sur.es Federación de Asociaciones de Software Libre Gul's y Gnu-Linux
Cómo activar el usuario root en Ubuntu

Por Áyax. Domingo, Octubre 25, 2009 | Documentación
1 punto2 puntos3 puntos4 puntos5 puntos (3 votos, promedio: 3.67 de 5)
Loading ... Loading ...

SuperusuarioPor defecto, la distribución Ubuntu bloquea la cuenta root
(superusuario) en favor de la utilización del comando sudo, el cual
permite a los usuarios ejecutar aplicaciones, generalmente con
privilegios de root, de manera segura. No obstante, podemos activar la
cuenta root si estamos acostumbrados a ella o bien queremos utilizarla
por cualquier otra necesidad.

Por seguridad, de ser posible hay que utilizar sudo para la
administración del sistema sin activar la cuenta root. Queda a
criterio del usuario la utilización de las siguientes instrucciones.

Ubuntu utiliza en todo momento el comando sudo para permitir a los
usuarios ejecutar tareas de mayores privilegios en el sistema, un
remplazo más seguro de lo que sería la utilización de la cuenta root.

Una forma sencilla y segura de loguearnos como root sin activar de
manera general la cuenta es con el siguiente comando:

$ sudo su -

Sin embargo, si tenemos costumbre de administrar el sistema con el
usuario root (sin estar utilizando el sudo), sobre todo si venimos de
otras distribuciones, o tenemos otra necesidad en especial, podemos
activar la cuenta root en Ubuntu.

Antes de proceder, vemos que la forma común para cambiarnos en la
terminal del usuario normal a root es con el comando su. Si intentamos
hacerlo en Ubuntu obtendremos lo siguiente:

$ su
Contraseña:
su: Fallo de autenticación

Es aquí que le vamos asignar una contraseña a root para que nos
permita el ingreso:

$ sudo passwd root
[sudo] password for espaciolinux:
Introduzca la nueva contraseña de UNIX:
Vuelva a escribir la nueva contraseña de UNIX:
passwd: contraseña actualizada correctamente

El comando solicita el cambio de contraseña para root, la segunda
línea solicita la contraseña del usuario para continuar, y por último
pide que introduzca la nueva contraseña para la cuenta.

Después de realizado ya podremos utilizar la cuenta root con la
contraseña elegida como lo hacemos comúnmente en otras distribuciones.

En caso de que queremos volver a desactivar la cuenta root podemos
hacerlo con uno de los siguientes comandos:

$ sudo passwd -l root

o

$ sudo usermod -p ‘!’ root

Paulo

unread,
Dec 13, 2009, 2:20:35 PM12/13/09
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos

Iniciar VirtualBox como si fuera una sesion mas de Ubuntu
Publicado Noviembre 24, 2009 Linux , Tips , Ubuntu 23 Comentarios

Ricardo arroyo me envia dos enlaces muy interesantes. El primero de
ello es: Iniciar VirtualBox como si fuera una sesion de Ubuntu.

Es decir, Si usamos a menudo VirtualBox para arrancar una maquina
virtual, tal vez nos interesara que esa opcion apareciera en el menu
de sesiones de Ubuntu (esa pantalla que aparece con el login y
password) de manera que seleccionando esa opcion, arrancara
directamente la maquina virtual a modo de pantalla completa. Asi nos
evitariamos entrar en sesion de Gnome o KDE y arrancar la maquina
virtualbox, pues directamente ya estariamos ejecutando este punto.

Aqui tenemos que tener en cuenta que el usuario para poder arrancar la
maquina virtual debe pertenecer al grupo vboxusers y tener permisos de
lectura y escritura sobre el fichero .vdi que se vaya a usar con la
maquina virtual. Bien, ahora solo tenemos que entrar al directorio /
usr/share/xsessions en esa ruta creamos un fichero por ejemplo llamado
windows.sh que contenga las siguientes lineas:

[Desktop Entry]
Encoding=UTF-8
Name=Windows XP Pro
Comment=This session will run your VirtualBox
Exec=VirtualBox -startvm "Windows XP Pro"
Icon=
Type=Application

Lo que esta en negrita es el nombre de la maquina virtual que quieres
arrancar, si usas otro nombre tendras que cambiarlo. El ejemplo
tambien es para el caso de una maquina virtualizada con Windows, si
usas otro sistema operativo tendras que adaptarlo ligeramente.

Nota: desde linea de comandos, tambien podriamos arrancar la maquina
virtual a pantalla completa con el siguiente comando:

VBoxSDL -fullscreen -vm "Windows XP"

El segundo enlace es un interesante video de mi compañero Blogger
CasiDiablo: VirtualBox, como ejecutar sistemas operativos reales.
23 Respuestas a “Iniciar VirtualBox como si fuera una sesion mas de
Ubuntu”
Feed para esta Entrada Dirección de Trackback

1.
1 Montagón Noviembre 24, 2009 a las 10:23 pm

Que interesante, gracias por la información. :D
Responder
2.
2 ubuntizando el planeta Noviembre 24, 2009 a las 10:38 pm

bueno. buenisimo y buensiiiiisisisismo!!! me encanta la idea.
Muy interesante la informacion. Esto puede ser muy util por ejemplo en
mi caso que debo en ocasiones lidiar con los dos sistemas. asi me
evito reiniciar. Basta con salir de la sesion.

Gracias.
Responder
3.
3 enalpha Noviembre 24, 2009 a las 10:39 pm

Es justo lo que buscaba para un ordenador que acabo de montar
con linux y un XP virtualizado encima.

Muchas gracias!
Responder
4.
4 nenelinux Noviembre 25, 2009 a las 3:44 am

una duda!! pero si “inicio sesion” con mi cuenta virual… tendria
corriendo ubuntu en segundo plano cierto???
Responder
*
5 crackiron Noviembre 25, 2009 a las 9:03 am

Cierto, sinó dificilmente sería virtual
Responder
5.
6 Fran Noviembre 25, 2009 a las 11:20 am

Muy bueno y curioso, pero útil?
puedes acceder a los menus de VirtualBox para montar USBs?
entiendo que deberías ahorrarte la memoria usada por Gnome, esta
sería la ventaja más obvia que encuentro para no iniciar sesión
primero, sobretodo en equipos con poca memoria

luego lo probaré, aunque teniendo Ubuntu quien quiere windows.
xD

Gracias por la info.
Responder
6.
7 chochis Noviembre 25, 2009 a las 2:00 pm

En karmik tiene que llamarse tener como extensión “.desktop”
Responder
*
8 nikkus Noviembre 25, 2009 a las 4:04 pm

Y aún así no logré hacerlo funcionar..:(
Responder
o
9 Dino Noviembre 25, 2009 a las 4:26 pm

claro en Karmic como sería???
Me parece que la data es para otra versión…(?)
7.
10 chochis Noviembre 25, 2009 a las 2:53 pm

Y tienes que tener la máquina registrada para el usuario root
también…
Responder
*
11 puentesdiaz Diciembre 6, 2009 a las 3:22 pm

como es eso?
Responder
8.
12 Methos Noviembre 25, 2009 a las 3:57 pm

Asombroso es el mundo GNU/Linux… simplemente asombroso…

¡Y todavía hay gente que se maravilla con Güindous Vista! JA JA
JA JA JA JA…
Responder
9.
13 gticlayauri Noviembre 25, 2009 a las 5:38 pm

Excelente post!!! BUeno les paso lo que yo hice para hacerlo
funcionar en Karmic Koala, ya que lo anterior no me funcionaba, es
decir no aparecía la sesión de la máquina virtual ni en GDM ni en KDM.
Lo que hice fue primero crear, en base al enlace que está al
inicio del artículo un script con lo siguiente:

#!/bin/bash
VBoxSDL -fullscreen -vm “Windows7″
done

A este scrip lo llamé windows-session, lo hice ejecutable
haciendo clic derecho / propiedades / permisos marcando la casilla:
permitir ejecutar como un programa. Este archivo lo guardé como root
en /usr/bin/.

Luego seguí con los pasos del post, es decir crear un archivo
dentro de /usr/share/xsessions con el nombre windows.desktop que
contiene:

[Desktop Entry]
Name=WINDOWS
Comment=This session logs you into WINDOWS
Exec=windows-session
TryExec=windows-session
Icon=
Type=Application
Name[es_PE]=WINDOWS

Luego reinicias la pc y voila tienes, tanto en gdm como en kdm,
en la zona donde puedes elegir sesión (en gdm una vez que seleccionas
usuario en la parte inferior de la pantalla; en kdm en el primer
círculo con rayas horizontales en la esquina inferior izquierda del
cuadro de sesión) una alternativa que dice WINDOWS.

El único problema o matiz es que al abrirlo en mi pc (una
toshiba Satellite Pro A205) abre al modo widescreen, es decir como si
vieras una película.

Saludos y felicitaciones al blog.
Responder
*
14 nikkus Noviembre 26, 2009 a las 8:54 am

Muchissimas gracias! Ahora si lo he logrado hacer que
rule! :D :D:D

Gracias gticlayauri! Gracias superwipi! Y a todos! :D
Responder
10.
15 chochis Noviembre 26, 2009 a las 7:19 am

Efectivamente, al final, el .desktop tiene que llevar un bash,
la línea de comando de VirtualBox directamente no funciona…
Responder
11.
16 julio Noviembre 26, 2009 a las 1:48 pm

aaaaaaaaaa no entiendo :( epliken como creo el script gracias :)
soy demasiado novato pero kiero aprender.. ayudenme plz!
Responder
*
17 julio Noviembre 26, 2009 a las 1:55 pm

olviden esto T.T ahora me sale q el no soy propietario
como lo modifico pa ser el root? T.T Ayuda >.<
Responder
o
18 julio Noviembre 26, 2009 a las 5:14 pm

una consulta… como puedo hacer para q me jale esa
configuracion xq no me esta levantando la configuracion solo jala el
script y se reinicia el SO mas no la maquina…y me vuelve a tirar para
loguearme :( ayudenme porfavor gracias derrepente fallo al hacer o
grabar alguno de los dowcumentos… ayudenme porfavor… de antemano les
agradezco :)
o
19 julio Noviembre 26, 2009 a las 5:25 pm

el programita con que cree la maquina viertual es el
virtualBox Edicion Open source (sera por eso?) y en los detalles veo:
nombre Win7 // Sis. OP Windows 7 // IDE Primario
Maestro Win7.vdi


1. 1 VirtualBox como una sesión más de Ubuntu Trackbacks en
Noviembre 25, 2009 a las 7:47 pm
2. 2 VirtualBox como unha sesión máis de Ubuntu - Galego Trackbacks
en Noviembre 25, 2009 a las 7:55 pm
3. 3 Top 5 (29-11-09) « El blog de Iyan Trackbacks en Noviembre 29,
2009 a las 9:48 am
4. 4 Iniciar VitualBox como si fuera una sesión más de Ubuntu « Un
Bioinformatiquillo Trackbacks en Diciembre 3, 2009 a las 9:01 am

Escribe un comentario
Haz clic para cancelar la respuesta.

Identificado como . Cerrar sesión »

Nombre

Correo electrónico (no sera publicado)

Sitio Web

Recibir subsiguientes comentarios por correo.
« Resultados Encuesta: ¿Te parece bien que Gimp sea eliminado de
Ubuntu?
Breves »
http://ubuntulife.wordpress.com/2009/11/24/iniciar-virtualbox-como-si-fuera-una-sesion-mas-de-ubuntu/

Paulo

unread,
Dec 17, 2009, 4:08:12 PM12/17/09
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos
Consejos y trucosCómo resolver dependencias 32 bits en Debian/Ubuntu
64 bits
Autor: Javier EDuarte | Lecturas: 296 | | lunes, 14 de diciembre 2009
@ 09:16 CST |

Al momento de instalar un sistema GNU/Linux, básicamente Debian o
Ubuntu, y dependiendo de la arquitectura de nuestra máquina, solemos
seleccionar la distribución basada en 32 o 64 bits.


Particularmente, los usuarios de 64 bits solemos elegir estas
distribuciones con las intenciones de sacarle todo el fruto a nuestro
procesador. Pero en muchos casos solemos quedarnos a pie porque no
encontramos aplicaciones que correspondan con nuestra arquitectura.
Esto sucede porque aún hay un gran número de aplicaciones que no son
compiladas como nativas de 64 bits.

Entonces, podemos forzar la instalación de un paquete .deb que no
coincide con nuestra arquitectura utilizando el siguiente comando:

[BASH]# dpkg -i –force-architecture paquete.deb
ó
[BASH]# dpkg -i –force-all paquete.deb

Aunque esta forma de forzar la instalación, en la mayoría de los
casos, suele ser poco eficaz, ya que si el programa depende de una
biblioteca de 32 bits, el comando no sabrá como resolverla.

Por otro lado, podemos instalar manualmente estas dependencias de
bibliotecas de 32 bits buscando en Synaptic “ia32” e instalar todos
los paquetes que se encuentren. Para buscarlo por consola tipeamos:

[BASH]# apt-cache search ia32

Además, deberemos instalar también el paquete “libc6-i386”. Podemos
ver una explicación más detallada de este tema aquí
-->
http://www.mepis.org/docs/es/Instalar_paquetes_de_32_bits_en_un_sistema_de_64_bits

Sin embargo, puede que esto tampoco resuelva nuestro problema.

Pero a esta altura no debemos echarnos atrás, ya que la solución esta
siempre al alcance de nuestras manos. Buscando, buscando, me encuentro
con Getlibs, de la cual me entero en los foros de los usuarios de
Debian. Esta es una aplicación que nos permite resolver
automáticamente las dependencias de binarios.

Getlibs nos permite descargar e instalar los binarios que faltan para
cualquier aplicación de 32 bits en un sistema de 64 bits. A su vez,
podemos descargar e instalar dependencias necesarias para correr
aplicaciones 32 bits en sistemas 32 bits. Ademas podemos buscar las
dependencias necesarias de un binario, o en su defecto buscarlas por
su nombre.

Pero veamos en primera instancia como instalar esta aplicación.

Primero que nada, deberemos descargarnos Getlibs. Lamentablemente no
encontré nada relacionado a la web del autor de esta herramienta,
aunque si podemos ver, según otros blogs, su perfil en los foros de
Ubuntu. Asi que para descargarlo, les dejo el siguiente enlace en Hot
Share.
-->http://www.hotshare.net/es/file/61002-6358541df0.html

Una vez descargado, lo instalamos:

[BASH]# dpkg -i getlibs-all.deb

Ya instalado, podemos comenzar a resolver dependencias e instalar
aplicaciones 32 bits en sistemas 64 bits.

Para instalar una biblioteca de 32 bits desde un archivo .deb:

[BASH]# getlibs -i nombre-paquete-i386.deb

Para descargar e instalar un paquete 32 bits:

[BASH]# getlibs -w debian.org/i386-libreria.deb

Tambien podemos utilizar Getlibs para instalar una biblioteca de 32
bits, utilizando el nombre del paquete:

[BASH]# getlibs -p libqt4-core

Para instalar una biblioteca 32 bits utilizando el nombre de la
biblioteca:

[BASH]# getlibs -l libogg.so.0

O tambien podemos utilizar Getlibs en un programa ya instalado para
descargar todas las bibliotecas que faltan:

[BASH]# getlibs /usr/bin/programa

Cabe destacar, que no es recomendable hacer uso y abuso de esta
herramienta, con el fin de evitar inconvenientes. Lo ideal es
utilizarla solo en casos muy necesarios. Todos los comandos utilizados
en esta guía requieren estar logueados como root para ejecutarlas.

http://www.linuxparatodos.net/portal/article.php?story=GNU-Linux_Debian_Ubuntu

Paulo

unread,
Feb 24, 2010, 9:36:18 PM2/24/10
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos
Tip: Convertir masivamente imágenes .PNG a .JPG (o viceversa)
by ubuntu-life
Hay aplicaciones y scripts para hacer esto, pero bueno, si quieres
algo muy raṕido para salir del apuro:
- Te metes en la carpeta donde están todas esas imágenes que quieres
convertir. Si no tienes instalado imagemagick ejecutas:
$ sudo aptitude install imagemagick
Y ahora solo queda hacer:
$ convert *.png *.jpg

Paulo

unread,
Feb 24, 2010, 10:47:54 PM2/24/10
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos

Paulo

unread,
Mar 1, 2010, 5:12:09 AM3/1/10
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos
Oracle mantiene Lustre :)
17 de Febrero de 2010 - por thrash 10 comentarios
Acabo de leer que Oracle piensa mantener Lustre. Esto es una noticia
muy buena tanto para el mundo de software libre (FLOSS) como para el
mundo HPC (High Performance Computing).

HPC es toda aquella computación que requiere una potencia de cálculo
superior a la potencia de los ordenadores/computadoras convencionales.
Cuando se habla de HPC, se suele pensar en laboratorios de
investigación y de diseño de vehículos (en este caso se suele llamar
HPTC, High Performance Technical Computing). Pero debemos tener en
cuenta que en enotrnos financieros (banca y seguros) también existe el
HPC ya que se requiere mucha potencia de cálculo para hacer
previsiones bursátiles, cálculo de riesgos, …
Bueno, a lo que íbamos … Lustre.
Voy a simplificar muchísimo todo el tema de Lustre porque:
en su propia web podréis encontrar muchísima más info sobre el
proyecto (incluyendo código fuente)
esto NO es un tutorial de Lustre
Para los que no conozcáis Lustre, es un sistema de ficheros
paralalelo, similar a PanFS de Panasas o a pNFS. ¿Qué es un sistema de
ficheros paralelo?
Un sistema de ficheros paralelo presenta dos servidores claramente
diferenciados y separados, así como almacenamientos separados para
dichos servidores:
servidor de metadatos (MDS, MetaData Server) con su almacenamiento
(sistema de ficheros dedicado llamado MDT, MetaData Target): se
encarga d elos metadatos (fechas de modificación, permisos, …)
servidor de datos (OSS, Object Storage Server) con su almacenamiento
(sistema de ficheros dedicado llamado OST, Object Storage Target): se
encarga de almacenar los datos
Un esquema muy sencillo sería este:

Vemos en el esquema al MDS, MDT, OSS y OST, así como el cluster de
cálculo que haría uso de Lustre (el cluster sería el cliente Lustre,
cada nodo de cómputo sería un cliente Lustre). Es importante tener en
cuenta que cada nodo de cálculo del cluster tendría que llevar
instalado un agente software o módulo de kernel con soporte para
Lustre. Es decir, Lustre usa su propio protocolo de comunicaciones y
no usa FTP, HTTP, CIFS ni NFS. La red privada de Lustre es utilizada
por los OSS y los MDS para comunicarse entre sí.
Antes de continuar, debo decir que no hay que confundir Lustre con un
clustered filesystem como puede ser OCFS (también de Oracle y de
código abieto), CXFS (de Silicon Graphics) o GFS (de Red Hat), entre
otros. En un sistema de ficheros en cluster hay un único sistema de
ficheros en el que se encuentran los datos y los metadatos
(físicamente, este sistema de ficheros puede encontrarse en una única
cabina de discos o en varias).
El uso que se les da tanto a los sistemas de ficheros paralelos y a
los sistemas de fichero en cluster es diferente también. Por ejemplo,
un sistema de ficheros paralelo permite un elevado ancho de banda,
pero la latencia suele ser alta también. En cambio, los sistemas de
ficheros en cluster se suelen utilizar en entornos en los que las
latencias son muy importantes, como por ejemplo, en entornos de post-
producción (televisión y cine). Los sistemas de ficheros en cluster
también se usan para servicios configurados en alta disponibilidad, en
este último caso no es importante el ancho de banda ni la latencia,
pero sí que los datos servidos por ambos servidores en alta
disponibilidad sean los mismos, como es el caso de BBDD y servidores
de correo, servidores de ficheros en alta disponibilidad.
Bueno, sigamos con Lustre. Lustre es posiblemente el sistema de
ficheros más famoso dentro del mundo HPC. Se utiliza en muchos centros
de investigación tanto privados como públicos debido a:
que es de código abierto: esto tiene dos ventajas (según en qué
departamentos trabajes), una es que es “barato” y otra es que tienes
acceso al código fuente
ofrece un elevado ancho de banda: cada vez que añades un OSS (y su
correspondiente OST), aumentas el ancho de banda
no es específico de un fabricante de hardware de servidores o cabinas
de almacenamiento o de interconexión
Posiblmenete esta última ventaja sea la más importante. Da igual el
servidor que uses (marca, modelo), da igual el almacenamiento que uses
(SAS, SATA, FC, …) y da igual la interconexión (puedes usar Gigabit
Ethernet, 10 Gigabit Ethernet, InfiniBand, Myrinet, Quadrics). Incluso
puedes mezclar tecnologías … lo cual no significa que sea una buena
idea ;) Obviamente, si tenemos todos los servidores, almacenamientos e
interconexiones iguales, el rendimiento será constante y no tendremos
fluctuaciones ni picos ni dolores de cabeza a la hora de administrar.
A continuación os muestro un diagrama un poco más complejo/completo en
el que vemos más OSS, MDS y OST ;)

Históricamente, Lustre lo empezó a desarrollar una empresa llamada
ClusterFS. Sun compró dicha empresa y … últimamente estábamos todos
con el corazón en un puño ya que Oracle no se dedica al mundo de HPC.
Con el comunicado, parece que el futuro del proyecto se garantiza y
que tendremos Lustre para rato … ¿Será que Oracle se quiere adentrar
en el mundo HPC? Bueno, eso no lo sabemos y no es plan de especular ;)
Como todo en esta vida, Lustre no es perfecto (aun siendo FLOSS ;)
sólo soporta Linux … ¿Por qué habré puesto esto como inconveniente?
¿Ah! Ya. Porque no están soportados otros sistemas operativos libres o
de código abierto como son la pandilla *BSD ni OpenSolaris. Claro que
la respuesta a esto es que no hay demanda por lo que no se ha portado.
Es decir, hay poca gente que usa *BSD y/u OpenSolaris en entornos HPC.
NO, no he dicho que no se use, he dicho que se usa poco
los datos se almacenan como un stripe entre los OSS/OST.
Efectivamente, esto es como un RAID 0 a nivel de servidores. ¿Por qué
es malo? Vamos a ver esto con el ejemplo del RAID 0. Imaginémonos un
RAID 0 de 5 discos, el fichero que se escriba en dicho RAID se
dividirá en 5 trozos y cada trozo se almacena en un disco … si se
pierde uno de los discos … perdemos los datos ya que no hay disco de
paridad, no hay protección de datos. Pues lo mismo ocurre aquí: si
perdemos un servidor … perdemos los datos. Bueno, no es tan fácil
perder datos porque:
generalemnte los datos están en una cabina de discos con controladoras
redundantes
generalmente los discos se configuran como RAID 5/6/10 de forma que
hay paridad (protección de datos)
el OSS sólo lleva el sistema operativo. Es decir, si se pierde el
servidor de datos, sólo habría que reemplazarlo por otro. Obviamente,
habría down-time. Pero eso es lo de menos ;) Para perder TODOS los
datos, tendríamos que perder el servidor y las cabinas y los discos.
Por poder, puede pasar, pero es más difícil ;)
backups … esto no se tuvo en cuenta cuando se diseñó Lustre. Hacer un
backup de Lustre tiene una serie de problemas:
el volumen de datos: generalmente hablamos de PetaBytes de datos o, en
el mejor de los casos, de varios cientos de TeraBytes de datos. Hacer
un backup de ese volumen de datos es muy complicado porque las
ventanas de backup tienen que ser muy grandes … necesitas mucho
tiempo.
el sw de backup tiene que ir fuera de Lustre por lo que NO es LAN
free, es decir, es por red y esto hace que vaya muy lento :(
no tiene ni es compatible con sistemas de almacenamiento jerárquicos
(HSM). Esto es raro ya que en el mundo HPC se usan bastante los
almacenamiento jerárquicos. En el roadmap actual se está teniendo en
cuenta y se espera que tenga pronto un HSM y/o compatibilidad con
alguno existente
no soporta protocolos como NFS y/o CIFS: es necesario instalar un
agente software o módulo de kernel en el cliente y dicho módulo sólo
existe para Linux
no es fácil de configurar ni de administrar
Como véis, los inconvenientes tienen sus soluciones y no son realmente
impedimentos. En la web de Lustre encontraréis información detallada
de cómo solventar estos inconvenientes. De hecho, se está trabajando
en alguno de ellos para que deje de ser un inconveniente en futuras
versiones :)
Lustre no es el único sistema de ficheros paralelo. Otros ejemplos de
sistemas de ficheros paralelos son:
GPFS
PVFS
GlusterFS
¿Quién usa Lustre? Lawrence Livermore National Laboratory (LLNL), Oak
Ridge National Laboratory, Pacific Northwest National Laboratory,
Texas Advanced Computing Center, NASA, Tokyo Institute of Technology,
TOTAL y muchos otros.
Como podemos ver, Lustre es un software muy importante en el mundo
FLOSS así como en el mundo HPC por lo que la continuidad de Lustre es
muy importante para unos (Linuxeros) y para otros (científicos). Me
alegra saber que Linux sigue teniendo uno de los sistemas de ficheros
más escalables existentes en el mercado y que lo seguirá teniendo :D
Queda ver si Oracle está interesado en mantener el resto de productos
FLOSS de Sun como son VirtualBox, OpenOffice, OpenSolaris, ZFS, … En
fin, os dejo una serie de enlaces interesantes a Lustre, por si os
aburrís ;)
Página Principal
http://www.muylinux.com/2010/02/17/oracle-mantiene-lustre/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+muylinux+(MuyLinux)&utm_content=Google+Reader

Paulo

unread,
Mar 8, 2010, 7:12:33 PM3/8/10
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos
VER LA TELEVISIÓN TDT EN LINUX (MANDRIVA 2010 Y FEDORA 12) CON VLC
Posted on 6 Febrero 2010, 9:00, by admin, under General, Linux.
1.- Instalar la tarjeta TDT en linux.

En mi caso utilizo “avermedia volarx”. Un TDT parecido a una memoria
USB.
Web oficial: http://www.avermedia.com/avertv/product/productdetail.aspx?id=39

Primero me voy a www.linuxtv.org para buscar mi tarjeta y saber si
esta
reconocida por linux.

En linuxtv.org vamos a dispositivos TDT por USB.
http://www.linuxtv.org/wiki/index.php/DVB-T_USB_Devices

Buscamos “avermedia Volar X” y la encontramos. Vamos a la página de la
tarjeta:
http://www.linuxtv.org/wiki/index.php/AVerMedia_AVerTV_Digi_Volar_X_%28A815%29

Ahora ejecutamos un comando para comprobar si nuestra tarjeta esta
reconocida por
nuestra distribución, tal y como nos dicen en la página.

Comando:
#lsusb

Y obtengo:
Bus 001 Device 003: ID 07ca:a815 AVerMedia Technologies, Inc.

Tal y como indican en la página de linuxtv.org.

Seguimos leyendo y nos indican que tenemos que añadir el firmware de
la tarjeta.
Por lo tanto, realizamos lo que nos indican.

- Bajar firmware.
- Copiar firmware a /lib/firmware

Comando (Teniendo en cuenta que estamos en la carpeta donde esta el
firmware):
#cp dvb-usb-af9015.fw /lib/firmware/

2.- Reniciar

Reiniciamos el ordenador.

3.- Creamos un archivo con los canales del TDT utilizando w_scan

- Descargar w_scan
http://wirbel.htpc-forum.de/w_scan/index2.html

- Descomprimir
Comando (Estamos en el mismo directorio que w_scan):
$tar -xjf w_scan-20091230.tar.bz2.bz

- Entramos en el directorio que se acaba de crear de w_scan
Comando (Estamos en el mismo directorio que w_scan):
$cd w_scan-20091230

- Realizamos una busqueda de canales. Los datos de la busqueda de
canales
se guardara en un fichero llamado “canalesTDT.conf”.
Comando (Estamos dentro de la carpeta creada al descomprimir w_scan):
$./w_scan -c ES -X >> /home/felipe/canalesTDT.conf

OJO! la opciones son: -c en minúscula y -X en mayúscula.

4.- Instalamos VLC

Este paso dependera muchos de nuestra distribución. En mi caso es
Mandriva 2010 Free.
Esta distribución utiliza paquetes *.RPM.

Para instalar VLC en esta distribución utilizo el comando:
#urpmi vlc

Despues de ejecutarlo me indica que es necesario instalar paquetes
dependientes y me
pregunta si realmente quiero instalarlo, contestamos que sí.

5.- Distrutar de la televisión TDT con VLC.

Ahora abrimos VLC, vamos a “Medio”, “Abrir archivo”. Seleccionamos
“Todos los archivos” para ver
el archivo “canalesTDT.conf” y lo seleccionamos.

Para ver la lista de canales, vamos a “view”, “playlist” y ya veremos
todos los canales de TDT que
w_scan detecto.
http://www.mascodigo.com/ver-la-television-tdt-en-linux-mandriva-2010-y-fedora-12-con-vlc.html

Paulo

unread,
Mar 26, 2010, 6:21:47 PM3/26/10
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos
Libro sobre Voz/IP en castellano
http://softlibre.barrapunto.com/article.pl?sid=10/03/15/162254&from=rss
«Alfio Muñoz ha publicado el libro Elastix a Ritmo Merengue. En él se
detalla paso a paso como configurar un servidor de Voz/IP y
comunicaciones unificadas a través de la distribución de software
libre Elastix. Si bien este documento se basa en Elastix, el
conocimiento proporcionado permitirá al lector entender mejor el mundo
de la Voz/IP y Comunicaciones Unificadas bajo cualquier plataforma. El
libro está publicado bajo licencia libre GNU FDL así que puede ser
descargado sin costo desde el Internet en formato ODT y PDF. Elastix
es una distribución de comunicaciones unificadas que integra los
servicios de telefonía, fax, mensajería instantanea, email y
colaboración. Su desarrollo se lo hace principalmente en América
Latina por lo que tiene una comunidad de soporte muy fuerte en
castellano».

Paulo

unread,
Mar 26, 2010, 7:47:55 PM3/26/10
to Linux-Sur.org Asociacón de Software Libre y Estándares Abiertos
Hardware compatible con linux
HCL: comprueba que tu hardware esté soportado en tu distro

26 de Marzo de 2010 - por Picajoso

6 comentarios

Las Hardware Compatibility Lists (HCL) son a menudo ignoradas por los
usuarios de Linux, que deberían hacer caso a estos datos antes de
quejarse de que sus equipos no funcionan bien con tal o cual
distribución. Ya sabemos que el soporte hardware en Linux ha sido en
ocasiones algo limitado, y aunque hoy en día la compatibilidad con la
mayoría de componentes y periféricos es fantástica, no está de más
echar un vistazo a estas listas.

Cada distribución (al menos en el caso de las grandes) suele tener un
documento en el cual es posible realizar un seguimiento de las HCL
para esa distribución, y en dichas listas podremos comprobar si
nuestro equipo -o el futuro equipo en el que estamos pensando instalar
Linux- es completamente compatible a nivel hardware con la
distribución.

He realizado una búsqueda rápida y he encontrado varias de estas HCL
para distintas distribuciones:

* Ubuntu: UbuntuHCL
* Fedora: Red Hat Certified Hardware List, Wiki oficial Fedora,
UnixCraft, FedoraLinuxHCL
* openSUSE: openSUSE HCL
* Debian: Debian HCL
* Mandriva: Mandriva HCL, DebianLinuxHCL
* Arch Linux: Arch Linux HCL
* Linux Mint: LinuxMintHCL
* Gentoo: GentooLinuxHCL
* CentOS: CentOSLinuxHCL
* PC-Linux: PCLinuxOSHCL
* Slackware: SlackwareLinuxHCL
* Linux en general: LinuxQuestionsHCL

http://www.muylinux.com/2010/03/26/hcl-comprueba-que-tu-hardware-este-soportado-en-tu-distro/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+muylinux+%28MuyLinux%29

It is loading more messages.
0 new messages