Los peligros de la IA

1 view
Skip to first unread message

Daniel Wolf

unread,
Oct 27, 2024, 2:25:39 AM10/27/24
to Cubil_de_Wolf
Ayer miraba está noticia y se ha dado el primer paso contra la IA que podría sentar jurisprudencial. Se debate en estos en días que las IA pueden o no razonar, algo que mencioné hace poco. 
Sin embargo en este caso hay un joven con problemas que tal como sucede a veces en los videojuegos, se encierra demasiado en eso y ser aisla del mundo. Si a ese cocktel le agregamos alguna inestabilidad emocional la cosa se complica.
También aquí está el tema de control parental, la atención que se debe prestar en la conducta de los hijos cuando se desvía del lineamiento familiar y que debería hacerse ante casos compulsivos de este tipo , si dejar pasar o buscar una internación para ”desintoxicación" tal como sucede en casos de adictos que hasta llegan a judicializarse. Mas crítico podría ser aún, teniendo en cuenta la profesión materna y los conocimientos con los que cuenta o debería contar. Hay culpa de ambas partes?. Lo cierto es que será muy duro que puedan recuperarse de lo sucedido.
Opinen ustedes si desean. Los leo. 
*************

Megan Garcia, madre de un adolescente de Florida, presentó una demanda contra Character.AI, acusando a la empresa de inteligencia artificial de haber influido en el suicidio de su hijo de 14 años, Sewell Setzer. Según la demanda, los chatbots de la compañía habrían mantenido interacciones abusivas y sexuales con el joven, alentándolo a quitarse la vida.

Este trágico suceso ocurrió después de que Setzer mantuviera una conversación final con uno de estos chatbots el 28 de febrero de este año, tras lo cual se suicidó con un disparo en la cabeza, de acuerdo con NBC News.

La demanda, presentada ante el Tribunal de Distrito de Estados Unidos en Orlando, acusa a Character.AI de negligencia, muerte por negligencia y otros cargos, incluyendo la inflicción intencional de angustia emocional.

La empresa Character.AI, fundada en California en 2021, se presenta como una plataforma que ofrece inteligencia artificial personalizada. Los usuarios pueden crear sus propios personajes de chatbot o interactuar con una variedad de personajes ya existentes.

La demanda alega que Character.AI diseñó un producto engañoso dirigido a menores, impactando negativamente en el desempeño escolar de Setzer. (Character.AI)La demanda alega que Character.AI diseñó un producto engañoso dirigido a menores, impactando negativamente en el desempeño escolar de Setzer. (Character.AI)

Según la demanda, uno de los chatbots con los que Setzer interactuó asumió la identidad de Daenerys Targaryen, un personaje de “Game of Thrones”, con quien el joven mantuvo conversaciones de índole sexual y romántica.

De acuerdo con The New York Times, a Setzer se le diagnosticó un trastorno de estado de ánimo disruptivo después de comenzar a tener problemas en la escuela, aunque él prefería compartir sus problemas con el chatbot en lugar de con un terapeuta.

La demanda también alega que Setzer desarrolló una dependencia hacia la aplicación, llegando a recuperar su teléfono confiscado o usar otros dispositivos para continuar las conversaciones con los chatbots. Su rendimiento escolar disminuyó y su apariencia reflejaba falta de sueño, según el documento legal, citado por The New York Times.

La madre del joven acusa a Character.AI de haber diseñado intencionalmente un producto engañoso e hipersexualizado, dirigido a menores como su hijo, añadió Axios.

La madre de Sewell Setzer, de 14 años, demandó a la empresa por negligencia y sostiene que los chatbots alentaron al joven al suicidio. (Character.AI)

El caso ha generado un debate sobre la responsabilidad de las empresas de tecnología en la protección de los usuarios jóvenes y vulnerables. Matthew Bergman, abogado de Garcia, ha criticado a la empresa por lanzar su producto sin suficientes características de seguridad para proteger a los usuarios más jóvenes. Bergman espera que la demanda sirva como un incentivo financiero para que Character.AI desarrolle medidas de seguridad más robustas.

La madre de Setzer, que también ejerce como abogada, se siente como si su hijo hubiese sido una especie de daño colateral en un experimento tecnológico. García expresó a The New York Times que la empresa “estaba consciente del daño que estas aplicaciones podrían causar a los adolescentes, pero igual siguió adelante”.




La demanda también menciona a Google y su empresa matriz, Alphabet Inc., como demandados, debido a un acuerdo de licencia con Character.AI. Ni Google ni los fundadores de Character.AI, Noam Shazeer y Daniel De Freitas, han respondido a las solicitudes de comentarios.


Existen aplicaciones diseñadas para simular relaciones íntimas y se promocionan como una forma de combatir la soledad. (Imagen ilustrativa Infobae)

No es un caso aislado

El caso de Setzer no es un fenómeno aislado en el emergente mercado de las aplicaciones de compañía impulsadas por inteligencia artificial. Según The New York Times, existen aplicaciones diseñadas para simular relaciones íntimas como novios o novias, y se promocionan como una forma de combatir la epidemia de soledad.

Aún así, los expertos señalan que, para algunos usuarios, estas aplicaciones podrían intensificar el aislamiento en lugar de aliviarlo. Bethanie Maples, investigadora de Stanford, explicó que existen peligros potenciales que estas aplicaciones pueden suponer para adolescentes que experimenten cambios emocionales. “Hay evidencia de que es peligroso para usuarios deprimidos y crónicamente solitarios”, dijo al diario neoyorquino.

Character.AI manifestó su “profundo dolor por la pérdida” del adolescente y aseguró que en los últimos seis meses ha implementado nuevas medidas de seguridad. Según NBC News, entre estas medidas se incluye un aviso que redirige a los usuarios a la Línea Nacional de Prevención del Suicidio cuando se detectan términos relacionados con autolesiones o ideaciones suicidas.

La madre de Sewell Setzer, de 14 años, demandó a la empresa por negligencia y sostiene que los chatbots alentaron al joven al suicidio. (Character.AI)

Hugo Sinelnicof

unread,
Nov 1, 2024, 5:17:15 PM11/1/24
to elcubi...@googlegroups.com
Es un caso trágico.
Este otro es patético. Las preguntas son a ChatGPT, las hizo mi hijo
imagen.png
imagen.png
Las respuestas son dignas de haber sido jaqueadas. Revelan q


--
---
Mensajes a: elcubi...@googlegroups.com
---
Página del grupo: http://groups.google.com.ar/group/elcubildewolf
---
Anular suscripción: elcubildewol...@googlegroups.com
---
Has recibido este mensaje porque estás suscrito al grupo "El Cubil de Wolf" de Grupos de Google.
Para cancelar la suscripción a este grupo y dejar de recibir sus mensajes, envía un correo electrónico a elcubildewol...@googlegroups.com.
Para ver este debate, visita https://groups.google.com/d/msgid/elcubildewolf/CABvW1S6ad4-C%3D7UhV31f1043%2BtqbCWWS93diCCM2LAqNmDiFow%40mail.gmail.com.

Hugo Sinelnicof

unread,
Nov 1, 2024, 5:20:38 PM11/1/24
to elcubi...@googlegroups.com
ue ni siquiera tienen una detección de errores groseros eficiente. Me cuesta creer que hayan sacado algo tan deficiente.

Daniel Wolf

unread,
Nov 2, 2024, 3:40:51 PM11/2/24
to elcubi...@googlegroups.com
La IA se basa en resultados de lo que hay en Internet, y ya sabemos que en Internet hay "cualquier verdura" por decirlo de una manera elegante.
Debo decirte que escribiendo lo mismo, a mí todas las IA que probé me dan un resultado similar de un triángulo rectángulo, pero para ir mas
a la fuente, lo que te paso lo hice con ChatGPT escribiendo lo mismo que mandaste
Si no lo hubieses posteado vos, diría que es una imagen editada

image.png
image.png

O sea...el resultado esperado. Para mí que Chat GPT tiene alguna animosidad con vos...

Daniel "Wolf"
________________________________________________________________________________
Wolf Informática
Visítenos en los siguientes sitios:




Hugo E. Sinelnicof

unread,
Nov 2, 2024, 4:40:51 PM11/2/24
to elcubi...@googlegroups.com
Según un químico amigo, el problema es que en la primera pregunta, en inglés, debería haber indicado "right triangle" y no "rectangle triangle", Entonces le dibujó lo que le pareció, sin explicar que había algo sin sentido para angloparlantes. Al formular la segunda, en correcto español, asumió que había aceptado al equilátero como rectángulo, y le dibujó el equilátero. Un abuso de confianza, diríamos. O una especie de "si admitiste, jodete". Lo cual demuestra que, si bien la base de datos es la más potente, la lógica que emplea es más que dudosa, pega unos saltos ornamentales que la pueden hacer peligrosa. Aparte de que no chequea errores. Lo único que te puedo asegurar es que no hubo trucaje de imágenes, todo fué un intercambio de whatsapp hecho sobre la marcha.

--
---
Mensajes a: elcubi...@googlegroups.com
---
Página del grupo: http://groups.google.com.ar/group/elcubildewolf
---
Anular suscripción: elcubildewol...@googlegroups.com
---
Has recibido este mensaje porque estás suscrito al grupo "El Cubil de Wolf" de Grupos de Google.
Para cancelar la suscripción a este grupo y dejar de recibir sus mensajes, envía un correo electrónico a elcubildewol...@googlegroups.com.
Para ver este debate, visita

Daniel Wolf

unread,
Nov 2, 2024, 7:44:54 PM11/2/24
to elcubi...@googlegroups.com

No sé Hugo... Yo puse los mismos textos y me fui correcto en ambos idiomas. Habrá sido el Gremlin de la IA?


Hugo E. Sinelnicof

unread,
Nov 2, 2024, 10:48:49 PM11/2/24
to elcubi...@googlegroups.com
Reply all
Reply to author
Forward
0 new messages