Hola lo que pasa es que yo utilizo mucho Excel y dada la facilidad de uso que tiene con Yo preferiría usar Excel para Windows que el que hay para Android porque mi refiero a muchas celdas necesitó llegar hayas rápido y luego copiarlo para hacer dibujos en Autocad o para copiar precios para hacer transacciones que luego pegó en las diferentes aplicaciones donde se hacen esas transacciones Android cada vez es más usable pero aún así preferiría el uso de Excel en Windows saludosY si podría comprar una tableta Windows pero lo usaría sobre todo para salir y como que no me gustaría ni me acomodaria trayendo dos dispositivos si todo se pudiera ser en uno
Has recibido este mensaje porque estás suscrito a un tema del grupo "Android Accesible" de Grupos de Google.
Para cancelar la suscripción a este tema, visita https://groups.google.com/d/topic/android_accesible/tTfi_fExtw8/unsubscribe.
Para cancelar la suscripción a este grupo y a todos sus temas, envía un correo electrónico a android_accesi...@googlegroups.com.
Para publicar una publicación en este grupo, envía un correo electrónico a android_...@googlegroups.com.
Visita este grupo en https://groups.google.com/group/android_accesible.
Para ver este debate en la Web, visita https://groups.google.com/d/msgid/android_accesible/CAEA_obESpxC7Jmzv%3DZqZm3COoeN-bDzJPGAPKdhKBqaCV%2BqEyw%40mail.gmail.com.
Hola, os comento que hace ya algo de tiempo estuve trasteando con 2 o tres emuladores de Windows para Android, incluso con uno que tiene un precio de unos treinta y pico euros en la Play por supuesto pirateado.
Bien para no hacerlo largo, a no ser que tengáis algo de resto visual no perdáis el tiempo.
Saludos
Hola, os comento que hace ya algo de tiempo estuve trasteando con 2 o tres emuladores de Windows para Android, incluso con uno que tiene un precio de unos treinta y pico euros en la Play por supuesto pirateado.
Bien para no hacerlo largo, a no ser que tengáis algo de resto visual no perdáis el tiempo.
Saludos
¿en serio?. No me suena de nada, pero me interesaría mucho!
-----Mensaje original----- From: Guillermo Eduardo Charcahuana López
Sent: Thursday, November 8, 2018 7:43 PM
To: android_...@googlegroups.com
Subject: Re: [android_accesible] Sobre Wine
Buenas, creo que NVDA tenía soporte para ARM64? A ver si me avisan xd.
2018-11-08 12:36 GMT-05:00, Adrián López G mailto:adria...@gmail.com:
Hola David.
Entiendo que precisamente se necesitaría un celular X86, porque un ARM
correría programas de Windows RT y no más, y con X86 creo sí podría
correr otro lector de pantallas, pero creo que de esos casi no hay.
En estos días voy a volver a probar hacer un día de trabajo con Hojas
de Cálculo de Google o Excel para Android, con un teclado USB que
tengo, me imagino que algo a mejorado desde hace más de un año que lo
intenté, tal vez y con eso me fuera suficiente, lo que pasa es que yo
me manejo mucho en tablas, también de páginas web de donde saco datos,
y la verdad que para eso Jaws es, desde mi punto de vista, insuperable
al día de hoy.
Otra cosa es que no me acordaba que ya no actualizo datos desde
páginas web directamente a la hoja de cálculo, sino es cosa de copiar
y pegar unos pocos datos, y eso creo que con lo que hay sí podría.
Lo que no hay manera de hacer es continuar un dibujo en Autocad,
porque el Autocad para Android no tiene línea de comandos, que es
donde yo pego las coordenadas y eso sí que sólo en Windows.
Saludos.
Adrián.
PD: Hace rato respondí con el celular y entrada de voz por eso salió
con poca puntuación.
El 8/11/18, DaVid mailto:dhf...@gmail.com escribió:
Hola.
No creo que logres usar un lector de pantallas en wine, y talkback no
te va a leer excel si lograras correrlo.
Además, tengo mis dudas de la eficiencia de correr una aplicación
windows en android. La gran mayoría de dispositivos android utilizan
la arquitectura ARM, que no se parece en absoluto a la de intel. Esto
significa que por debajo el dispositivo tendrá que hacer la conversión
para comprender las instrucciones, y esto sería una carga muy pesada
para un celular.
Como dijo Taksan, yo lo vería más como un experimento, pero
difícilmente con una utilidad real.
Saludos.
El 8/11/18, Adrián López G mailto:adria...@gmail.com escribió:
Visita
nuestra página en Facebook:
https://web.facebook.com/androidaccesible2012/
Síguenos
en Twitter:
@fandroidaccess
Nota: Si usted tiene derechos sobre
la propiedad intelectual de algún material publicado en éste grupo y tiene
objeción a nuestro uso del mismo, por favor, escríbanos una nota en nuestro
formulario de contacto y lo retiraremos enseguida. Cada miembro de esta lista es
el único responsable del contenido y/o material que publique en el grupo.
---
Has recibido este mensaje porque estás suscrito al grupo "Android Accesible"
de Grupos de Google.
Para cancelar la suscripción a este grupo y dejar de
recibir sus mensajes, envía un correo electrónico a
android_accesi...@googlegroups.com.
Para publicar en este grupo, envía un correo electrónico a android_...@googlegroups.com.
Visita este grupo en https://groups.google.com/group/android_accesible.
Para
ver esta conversación en el sitio web, visita https://groups.google.com/d/msgid/android_accesible/38dabe83-1b1c-10c3-3341-3b0999973a33%40gmail.com.
Para
acceder a más opciones, visita https://groups.google.com/d/optout.
Para ver este debate en la Web, visita https://groups.google.com/d/msgid/android_accesible/CAAWTjr%3DsWwKOb9cRKo2EjhaLDZurx2DqDQWcnp%2BLevVo8rAF0g%40mail.gmail.com.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/CABgZ1asBPK69YCNfstsWusv0RN9W4LCxJFYdffJqhOepgGq2ag%40mail.gmail.com.
Uf, no soy Adrián, pero se me antoja muy muy difícil poder trabajar con Autocad de forma accesible, y plena. Puede que alguna cosa puntual pueda hacerse; pero sacarle todo el partido, y trabajar de forma seria ... Lo veo muy complicado.
No tanto por la accesibilidad de la GUI de Autocad sino por su naturaleza.
Será interesante, si está Adrián, y nos explica cómo se puede trabajar con Autocad, ver como se hace y hasta donde se puede llegar de forma accesible.
hola perdon pero no consigo manadar mensajes a la la lista
no sé si tengo algun problema con la direccion
si me podeis ayudar te lo agradezco
gracias pablo
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/d5a210d0-2bd2-4abd-95f9-2c20da2a029c%40yahoo.es.
Como intuía, ha sido interesante saber como Adrián es capaz de usar Autocad.
No subestimo el ingenio ni la creatividad. En otros campos, también en tecnología, me las he ingeniado muchas veces para hacer cosas que a priori no son posibles sin ver.
Pero lo de usar Autocad es otra cosa.
Lo que pasa es, que no sabía que Autocad puede usarse por línea de comandos. Siendo así, es comprensible que puedan hacerse muchas cosas, igual que con Opensquad, con el que es posible crear diseños 3D sin ver, porque no es visual: son alternativas muy complejas, y como dice adrián, yo también creo que el haber visto ayuda mucho a hacer este tipo de cosas, lo que no significa que sin haber visto nunca, no sea posible.
Desde luego es indiscutible que la IA ha tumbado prácticamente cualquier limitación en informática/tecnología, que pudiéramos tener los ciegos; aunque claro, aún ha de mejorar bastante. Por ejemplo, en cuanto a diseños visuales: por ejemplo, podemos pedirle a una IA que nos haga el diseño de una app o WEB, atractivo, y todo eso; y lo hará, y seguro que mejor que nosotros sin ayuda. Pero aún falta, para que ese diseño sea realmente atractivo, y sobre todo, indistinguible de si ha sido hecho por una IA o por un humano.
Pongo el ejemplo del frontend de una app o web, pero es igual para cualquier cosa.
Quizás si le pedimos el código para diseñar algo para imprimirlo en 3D, sí que lo haga bastante bien. De hecho es una buena utilidad, para quienes no sepan nada de Opensquad.
Hace mucho tiempo que me ha llamado la curiosidad trastear con impresoras 3D y Opensquad, pero no he terminado de ver clara la accesibilidad de las impresoras 3D, ni que realmente sea práctico usarlas sin ver y sin ayuda (más allá de hacer los diseños con Opensquad).
Por cierto, hablando de la ayuda de la IA: hoy en día, con la IA se acabó eso de los programas no accesibles: con Openclaw conectado a una IA, los ciegos podemos usar cualquier programa, por inaccesible que sea tanto por su GUI, como por la naturaleza del programa. Así que Autocad, Photoshop, o cualquier otra aplicación, sería cuestión de decirle al agente qué queremos hacer, y la IA hacerlo.
es verdad que para eso le pedimos directamente una imagen o lo que sea, pero normalmente, las IAs que lo hacen realmente bien, son de pago. Openclaw, con algún modelo local, es gratis (aunque con limitaciones por el hardware).
Yo quizás no lo usaría para crear imágenes, planos, etc, pero sí para usar aplicaciones que tienen una interfaz inaccesible.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/aa05b5fe-519a-493f-bde5-c86144dcd0edn%40googlegroups.com.
Sí, lo había entendido.
Me apunto esa forma de usar Autocad, es muy interesante.
>>> pequeña pantalla de un celular.. solamente me parece un experimento
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/aa05b5fe-519a-493f-bde5-c86144dcd0edn%40googlegroups.com.
Sí, portar las APIs de accesibilidad de Windows a wine es perfectamente factible. Yo creo que simplemente no lo han hecho ya en Wine, porque lo han considerado menos relevante que el resto de APIs.
Tiene mucho sentido portar la infraestructura de accesibilidad de Windows a Wine, aunque claro, para nosotros...
Técnicamente es perfectamente viable, pero el trabajo se me antoja enorme, aun siendo solo una parte de las APIs win32. Pero claro, nada en comparación con el trabajo que ha supuesto Wine.
>>> pequeña pantalla de un celular.. solamente me parece un experimento
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/1da8e1d6-6ed9-4d6e-ad26-568dbd387324n%40googlegroups.com.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/8055fd47-e346-49f8-abba-9538739dc846n%40googlegroups.com.
Una duda sobre openscad, y también sobre IFC y USD (el primero lo conozco de saber para qué sirve, aunque nunca me ha dado por usarlo porque no tengo impresora 3D, y los otros no los conocía): ¿Una vez hecho un diseño, imagino que podrá representarse visualmente con alguna herramienta, sea propia de estos lenguajes, o de terceros. Pero ¿es posible explorar el diseño visualmente de alguna forma?.
Quiero decir, que está bien echarle imaginación para hacer un diseño 3D con Openscad. Pero quizás no quiera imprimirlo en una impresora 3D, o sí; pero antes quiera ver cómo ha quedado el diseño, sin tener que imaginarlo, y sin tener que imprimirlo: más allá de darle la imagen del diseño a una IA para que la describa, hay alguna forma de explorarlo de forma accesible?. Quizá no haga falta que sea con máximo detalle, pero al menos para saber donde hay cada elemento del diseño, ver distancias, etc.
Entiendo que no existirá una herramienta pensada especialmente para accesibilidad (aunque podría hacerse, teniendo en cuenta que los diseños se crean con código) pero igual en las herramientas existentes sí hay una "medio accesibilidad" al menos para explorar los diseños.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/f9465f28-9be1-4745-9fff-459af67ff5b5%40yahoo.es.
Sí, la IA es muy buena a la hora de describir, aunque es una IA, y como tal, puede alucinar, aunque los modelos cada vez tienden a hacerlo menos; pero la posibilidad siempre está ahí.
Jaja, eso es como preguntarle a la IA si mejoraría algo en un código fuente: es muy difícil que acabe diciendo que no tocaría nada. Y lo malo es, que a veces, de tanto que quiere perfeccionar, puede terminar por estropear o degradar cosas que ya estaban bien.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/CABgZ1au9A3q-OJq_KwbrvO0CXdo6qyMMZ6D_tettcPZ1ww7rBw%40mail.gmail.com.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/7858a7f0-80d0-448b-a720-4af657674b7d%40yahoo.es.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/f9465f28-9be1-4745-9fff-459af67ff5b5%40yahoo.es.
Hasta la llegada de ChatGPT, las applicaciones de descripción de imágenes eran un mundo totalmente distinto al que tenemos hoy en día, con la IA.
Sí habían herramientas, pero no tenían nada que ver. Lo más parecido a lo que hace ahora la IA, era TapTapSee, que incluso, de últimas, se atrevió con vídeos cortos. Era en aquél entonces lo más en descripción de imágenes, por la naturalidad con la que las describía y el detalle con que lo hacía; aunque claro, esto es cuestión de gustos, y habrá a quien le parezca que eran mejores otras como Envision, que parece que sigue activa. Lo último que sé de esta, es que no hace mucho parece que ha creado unas gafas inteligentes para ciegos.
Lo malo de envision (para mí) es que era de pago, y en mi opinión no superaba a TapTapsee, a la hora de describir con detalle una imagen.
Y habían otras muchas, pero fallaban bastante, o daban descripciones muy ortodoxas.
Aún recuerdo la visión artificial de Google en esa época; que además, se resistió a cambiar de APIs de visión artificial: si le dabas una imagen, se limitaba a enumerar clases de objetos y dar un grado de fiabilidad. Algo como: "Persona: 80%".
No solo la visión artificial de Google, otras APPs hacían lo mismo. De hecho, Lookout, de Google al apoyarse en las APIs de visión de Google, hacía eso mismo.
Por cierto, sobre TapTapsee, que hubo gente que incluso pensaba que habían personas detrás de la APP viendo las imágenes y devolviendo la descripción, nada más lejos de la realidad. TapTapSee era algo como modelo de negocio, un poco lío. Pero en definitiva, usaba Cloudsight, que en realidad es; o era, el API de visión artificial de CamFind: otra APP, que los ciegos usaron bastante para reconocer imágenes, aunque en realidad no era ese el propósito de esa APP, sino identificar objetos para buscarlos. Tipo en supermercados y tal.
Decía que la visión artificial cambió con la llegada de ChatGPT, pero en realidad no es del todo así. Más bien, cambió con la llegada de OpenAI, porque lo que pasó principalmente es que OpenAI pudo lanzar ChatGPT gracias al acuerdo al que llegó con Microsoft, por el cual, OpenAI usaba la infraestructura de Azure a cambio de que Microsoft fuese el primero en tener acceso a nuevas características de ChatGPT, para explotarlas comercialmente através de sus productos (por entonces lo hacían en bing).
Así, cuando OpenAI desarrolló GPT-4V (v de visión) antes de estar disponible en ChatGPT, la visión artificial de OpenAI estuvo disponible en la "IA de Microsoft" a través de Bing; luego ya llegó a ChatGPT, y apartir de ahí es historia: ChatGPT no dejó de ser multimodal, y su visión no ha hecho más que mejorar, al igual que la del resto de modelos por otra parte. Aunque particularmente prefiero la visión artificial de ChatGPT que la de algunos modelos como Claude; también buen modelo, pero principalmente orientado al desarrollo, aunque con buena visión artificial, para mí no supera a ChatGPT.
La IA de Google es un caso a parte: Google ha tardado muchísimo en espabilar con su IA, y no ha sido hasta hace más o menos un par de años o quizás algo menos, que le ha dado un buen empujón a Gemini, para que pueda realmente competir con el resto.
Bard era un desastre. A eso no se le podía llamar "inteligencia", ni artificial, ni de ningún tipo. Efectivamente fallaba más que una escopeta de feria. Algo que chocaba mucho, teniendo en cuenta que Google es el rey de los datos, y que debería de tener 0 problemas para montar datasets gigantescos para entrenar la mejor IA del mundo. pero no. Incluso, si no recuerdo mal, hubo un modelo previo a Bard, que ni recuerdo ya su nombre, que era igual de malo que Bard (aunque se vendía Bard como un gran salto de calidad en la IA de Google....)
En fin, este es el repaso de la evolución de la visión artificial. Parece un repaso de treinta años, pero no hace falta ir tan atrás: la época de TapTapSee y compañía, es la del 2020; y claro, unos años antes. Pero fue más o menos en 2022 o por ahí, cuando OpenAI liberó GPT-4V, que pudimos usar primero a través de Bing, y luego ya en el propio ChatGPT.
Aun con todo, lógicamente, GPT-4V, fue una revolución en visión artificial, pero estaba a años luz de la visión de GPT-5.4 o Gemini 3, e incluso de modelos open source actuales. Pero eso es algo lógico: los modelos de dentro de cinco años, serán infinitamente mejor que los que tenemos ahora... Y así siempre.
Para ver este debate, visita https://groups.google.com/d/msgid/android_accesible/1c0fda5a-f799-4aa8-80c3-541fe4b16498%40yahoo.es.