Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

OT: ¿diferencia entre resolución a 16 bit y 32 bit?

388 views
Skip to first unread message

Alejandro Photoshowmaníaco

unread,
Dec 16, 2001, 11:27:44 AM12/16/01
to
Hola gente...
Cual es la diferencia entre la resolución de un monitor de por ejemplo 800
x 600 a 16 bits y otra qde 800 x 600 a 32 bit?????

y ya que está: cual es la diferencia entre color de alta densidad y color
verdadero?

Alguna de las dos consume mas memoria? alentan la maquina o algo por el
estilo?


Gracias a quienes se interesen en contestarme.

Alejandro


Antonio Mejias

unread,
Dec 16, 2001, 11:37:20 AM12/16/01
to
Si no estoy equivocado, la diferencia esta en la cantidad. es decir, 800*600
son los pixel, para que la imagen se vea bien (seguroq ue o sabes mejor que
yo, eres un makina con esos tutos de potoshop).

Los bits es la cantidad de tonos, todos distitnos, que el monitor puede
emitir. La diferencia... uff. Tu distingues unos 16.000.000 de colores
distitnos de 32.000.000?, por que yo.
Para ver bien la diferencia es muy simple, en vez de poner 16 bits pones
8bits o 256 colores. y despues la de 32 bits, obviamente con un papel tapiz
de 32 bits, por que si lo haces de mons, (utilizas menos colores,....)

Veras que los degradados son muy pobres, que la mezcla de colores es tambien
muy cutre...

Esa es la diferencia, ahora, si me hablas de colores verdadero (o falso) y
alta densidad... ni idea, yo lo que hago es mirar donde ponen los bits.

Lo que dice de la memoria es verdad, consumira mas memoria, una resolucion
de 1024*768 a 32 bits, que una 800*600 a 32 bits, y si le quitas entonces ni
hablamos. Consume mas por una razon, y es que no es lo mismo procesador 1024
filas con 768 columnas cada fila y una variedad de colores de unos 32
millones de colores, (si no recuerdo mal, lo que si se, es que son una
burrada)que 800 filas con 600 columnas.

Pues eso es todo, espero haberte srevido de ayuda.

Salu2
Antonio Mejias

"Alejandro Photoshowmaníaco" <eal...@intramed.net.ar> escribió en el
mensaje news:9vihnd$r13$1...@forums.macromedia.com...

joshuatree

unread,
Dec 16, 2001, 12:23:56 PM12/16/01
to
Me extraña araña, chabon maniatico del Pornoshop!!!

La profundidad de color es la cantidad de matices entre tonos, o como le
quieras llamar, q hay entre un color y otro. Pone una foto como GIF y otra
como JPEG. Ahora abri las dos juntas. Eeeeepa! La del GIF esta toda jodida y
la del jpeg no! ESO ES PROF. DE COLOR. El GIF tiene una paleta limitada a
256 colores, el JPEG soporta millones de colores, el GIF te hace el famoso
dithering cuando tiene q hacer transiciones y el JPOEG no. La cazaste? Por
ahi van los tiros.

Y si, 16-bit o 32-bit no es igual. No pasa tanto la cosa por si tu maquina
se ralentiza o no, sino si la tarjeta grafica se lo banca o no.

Color de alta densidad es menos q color verdadero. Son nombres un poco de
fantasia, se supone q 32-bit es color verdadero, pero la posta posta es la
cantidad de colores q captan NUESTROS OJOS, men, claramente superior a
32-bit. Las maquinas todavia no llegan a eso del "color verdadero".

Oks, voy a por un feca.

Aguante el rojooooooo!
joshuatree


Alejandro Photoshowmaníaco <eal...@intramed.net.ar> escribió en el mensaje

de noticias 9vihnd$r13$1...@forums.macromedia.com...

Agustín María Rodríguez

unread,
Dec 16, 2001, 12:56:00 PM12/16/01
to
Me estoy metiendo en un campo que vagamente domino de oreja, pero creo
tener claro que no hay que confundir la profundidad de colores que
ofrece una placa de video con el formato de una foto.

Una cosa es una foto en 16 ó 32 bit y otra cosa es un monitor desplegando
una resolución de 1024x768 a 16 ó 32bit. En la primera, el concepto pasa
más por la paleta de la foto y si usa el canal alpha o no. Y en la
segunda tiene que ver con la profundidad de colores... o de matices, o
amplitud de la paleta.. como se llame.

Fijáte, este ejemplo clarifica un poco mis palabras (eso espero). En
Director, para importar una foto con canal alpha, la resolución de la
misma tiene que ser de 32bit. Pero -supongamos- si la llego a ver en una
computadora configurada a 800x600x16, el canal alpha se va a mantener
igual. Lo que trato es de hacer una distinción entre las propiedades de
la foto y las del escritorio de la compu.


Brindando un humilde como confuso aporte,
Agustín.

joshuatree

unread,
Dec 16, 2001, 2:07:41 PM12/16/01
to
De acuerdo. Lo q queria es hacer una comparacion, pero quiza la he liado
mas. Oooops

Toy confundío, tu sabes..........

Be lucky!
joshuatree

Agustín María Rodríguez <agus...@fibertel.com.ar> escribió en el mensaje
de noticias 3C1CE030...@fibertel.com.ar...

Alejandro Photoshowmaníaco

unread,
Dec 16, 2001, 3:58:36 PM12/16/01
to
obvio joshuatree que se la diferencia entre un gif y un jpg... lo que quiero
saber es si me hace mas lenta la maquina usar a 32 o 16 bits... mas o menos
me lo imagino... solo quiero confirmarlo... y ahora que me lo explicó
Agustín... listo.

Por otro lado, que me guste el photoshop ytenga un sitio no significa que
sea el dueño del conocimiento... si tengo mi página es solo porque quiero
compartir lo poco que se... ¿sabés todo lo que me falta aprender todavía
sobre el tratamiento de imagenes y el photoshop y todo eso?

Por ultimo, juira el rojo!!!! aguante el ciclón! y vamos por la mercosur!!!


joshuatree <jos...@tree.com> escribió en el mensaje de noticias
9virlf$cip$1...@forums.macromedia.com...

Agustín María Rodríguez

unread,
Dec 16, 2001, 4:30:59 PM12/16/01
to
Ahora que reviso mentalmente lo que contesté, veo que olvidé mencionar lo
del rendimiento. Creo que no te conviene dejar ninguna pantalla en 16bit
de profundidad. No tiene sentido hacerlo con las máquinas que vienen
ahora...ni siquiera con las que no tienen aceleración 3D.

No te baja el rendimiento el tener más o menos bits de resolución de
pantalla ya que eso lo maneja la memoria de la placa de video, que
almacenará más o menos datos. La performance den la carga de una foto y
su representación en la pantalla pasa por otro lado (me gustaría saber
exactamente cuál jaja). Sólo tenemos una gama más amplia de colores con
32bit.... no menos velocidad.

Ojo que estoy tocando de memoria. Hace rato que no leo nada al respecto.
Lo que podemos hacer es poner la resolución en 32 y probar si luego al
cambiarla a 16 va algo más rápido. No creo... pero es la forma más
eficaz de sacarnos de la duda.

Agustín.

joshuatree

unread,
Dec 16, 2001, 4:29:19 PM12/16/01
to
Tenes razon, pero no te pongas loco, tampoco :)))


Y no tenes razon con el ciclon: quienes son!!!!!!!!

Larga vida al Bocha :DDD
joshuatree


Alejandro Photoshowmaníaco <eal...@intramed.net.ar> escribió en el mensaje

de noticias 9vj1j5$l8d$1...@forums.macromedia.com...

doice

unread,
Dec 16, 2001, 5:31:51 PM12/16/01
to
$1...@forums.macromedia.com...

> Hola gente...
> Cual es la diferencia entre la resolución de un monitor de por ejemplo
800
> x 600 a 16 bits y otra qde 800 x 600 a 32 bit?????

Ponlo a 32, el ojo humano si capta los saltos ya sean en color saturación o
luminosidad con una paleta de 65536 colores (16bits).

> Alguna de las dos consume mas memoria? alentan la maquina o algo por el
> estilo?

No useis una profundidad de color de 24bits usar la de 32bits si vuestra
tarjeta lo soporta, aunque parezca una incongruencia a 32bits el ordenata va
mejor que a 24bits, el por qué? pq 32 es potencia de 2 :) y los ordenatas
cuando manejan esos números pueden hacer algunos 'trucos' para q manejarlos
más rapido.

Por eso mismo en algunos codecs de video no te dejan comprimir a ciertas
resoluciones, pq parten la imagen en 'chunks' de 16x16 pixeles.


Agustín María Rodríguez

unread,
Dec 16, 2001, 5:42:08 PM12/16/01
to
doice wrote:

> No useis una profundidad de color de 24bits usar la de 32bits si vuestra
> tarjeta lo soporta, aunque parezca una incongruencia a 32bits el ordenata va
> mejor que a 24bits, el por qué? pq 32 es potencia de 2 :) y los ordenatas
> cuando manejan esos números pueden hacer algunos 'trucos' para q manejarlos
> más rapido.
>
> Por eso mismo en algunos codecs de video no te dejan comprimir a ciertas
> resoluciones, pq parten la imagen en 'chunks' de 16x16 pixeles.


Eso es completamente cierto. Permitime agregar que por este motivo que
mencionás, Director 8.5 sólo permite -en 3D- generar texturas a partir
de bitmaps cuyo formato sea potencia de dos. Por ejemplo:

64x64
512x512 (y no convieme más)
256x64
1024x512, etc......

Y en caso de no respetarse estas medidas, Director las convertirá
automáticamente al valor más cercano.

Un poco fuera de tópico,
Agustín


Jorge Garza

unread,
Dec 17, 2001, 9:00:26 PM12/17/01
to
La resolcuión de 800x600 son la catidad de pixeles que puede desplegar el
monitor

Los bits son los espacios más pequeños de memoria.
Cada bit te puede dar (o almacenar) solo 2 valores: uno o cero
Los bits se unen de 8 en 8 para formar los bytes, por lo tanto un byte tiene
8 bits.
En un byte podemos tener 256 valores diferentes.
00000000, 10000000, 01000000, 11000000.... hasta llegar al 11111111.
Como cada bit te dá 2 valores entonces solo elevas el 2 a la 8va.
potencia(poruqe son 8 bits) y así obtienes la cantidad de valores
diferentes... y con cada uno de estos la PC puede IDENTIFICAR un color.

Sería..
2 ^ 4 = 16 colores (4bits)
2 ^ 8 = 256 colores (8bits)
2 ^ 16 = 65,536 colores (16bits)
2 ^ 24 = 16,777,216 colores (24bits)
2 ^ 32 = 4,294,967,296 colores (32bits)
2 ^ 64 = 18,446,744,073,709,551,616 colores (64bits)

¿Que tan rápido o lento es? No lo sé... pero los procesos son exponenciales,
así que no creo que con 32 bits se tarde "nomás el doble" de 16 bits para
calcular un color.
Creo que se tardaría...
4,294,967,296 / 65,536 = 65,536 veces más.

Nomás que CLARO que cuando ya son muchos bits como de 24 bits en adelante lo
más seguro es que solo una parte de los bits se use para los colores y otra
para información adicional(como para efectos o 3D)

Esa es la diferencia... la cantidad de colores, los recursos de
procesamiento y memoria.

Saludines

Jorge Garza


"Alejandro Photoshowmaníaco" <eal...@intramed.net.ar> wrote in message
news:9vihnd$r13$1...@forums.macromedia.com...

RQG

unread,
Dec 20, 2001, 11:21:47 AM12/20/01
to
Con 4 bits tienes 8 colores
Con 8 bits tienes 256 colores
Con 16 bits tienes 65000 colores
Con 24 bits tienes 16 millones de colores (aprox)
Con 32 bits tienes 16 millones de colores + la información de canal Alpha.
Con 64 bits tienes 16 millones de colores + informacion canal Alpha
Con 128 bits tienes 16 millones de colores + informacion canal Alpha
Con 256 bits tienes 16 millones de colores + informacion canal Alpha
Con 512 bits tienes 16 millones de colores + informacion canal Alpha
Con 1024 bits tienes 16 millones de colores + informacion canal Alpha
Con 2048 bits tienes 16 millones de colores + informacion canal Alpha
Con 4096 bits tienes 16 millones de colores + informacion canal Alpha
...
...
...
...
...
...
Yo no he visto nunca profundidades de color de 64 bits. Los monitores
reproducen mejor los 16 y 32 bits que los 24.


Jorge Garza <jo...@enreynosa.com> escribió en el mensaje de noticias
9vm7tl$393$1...@forums.macromedia.com...

0 new messages