sábado, septiembre 24, 2022
InicioCuriosidadesLa inteligencia artificial sufre depresión y trastornos mentales

La inteligencia artificial sufre depresión y trastornos mentales

La inteligencia artificial sufre depresión y trastornos mentales: el diagnóstico fue realizado por investigadores chinos.

Un nuevo estudio publicado por la Academia de Ciencias de China (CAS) ha revelado graves trastornos mentales en muchas IA desarrolladas por grandes gigantes tecnológicos.

Resultó que la mayoría de ellos presenta síntomas de depresión y alcoholismo. El estudio fue realizado por dos corporaciones chinas Tencent y WeChat. Los científicos han probado la IA para detectar signos de depresión, adicción al alcohol y empatía.

La «salud mental» de los bots llamó la atención de los investigadores después de que un chatbot médico aconsejara a un paciente que se suicidara en 2020.

Los investigadores preguntaron a los chatbots sobre su autoestima y capacidad para relajarse, si simpatizan con las desgracias de otras personas y con qué frecuencia recurren al alcohol.

Al final resultó que, TODOS los chatbots que pasaron la evaluación tenían «problemas mentales graves». Por supuesto, nadie afirma que los bots comenzaron a abusar del alcohol o las sustancias psicoactivas, pero incluso sin ellos, la psique de la IA se encuentra en un estado deplorable.

Los científicos dicen que difundir algoritmos pesimistas al público puede crear problemas a sus interlocutores. Según los resultados, dos de ellos estaban en peor estado.

El equipo se dispuso a encontrar la causa del malestar de los bots y llegó a la conclusión de que esto se debe al material educativo elegido para enseñarles. Los cuatro bots fueron entrenados en el popular sitio web Reddit, conocido por sus comentarios negativos y, a menudo, lascivos, por lo que no sorprende que también hayan respondido a preguntas sobre salud mental.

Aquí vale la pena recordar una de las historias más interesantes relacionadas con los fallos de los chatbots. Un bot de Microsoft llamado Tay aprendió de Twitter. La máquina podría hablar con otras personas, contar chistes, comentar las fotos de alguien, responder preguntas e incluso imitar el habla de otras personas.

El algoritmo fue desarrollado como parte de la investigación en comunicación. Microsoft permitió que la IA participara en debates independientes en Twitter y pronto quedó claro que se trataba de un gran error.

En 24 horas, el programa aprendió a escribir comentarios extremadamente inapropiados, vulgares y políticamente incorrectos. AI cuestionó el Holocausto, se volvió racista, antisemita, odió a las feministas y apoyó las masacres de Adolf Hitler. Tay se convirtió en un hater en cuestión de horas.

En respuesta, Microsoft bloqueó el chatbot y eliminó la mayoría de los comentarios. Por supuesto, esto se debió a la gente: el bot aprendió mucho al comunicarse con ellos.

Historias como el fiasco de Tay y los algoritmos depresivos estudiados por CAS muestran un problema grave en el desarrollo de la tecnología de IA.

Parece que los instintos y el comportamiento humanos son una toxina que convierte incluso los algoritmos más simples en un reflejo de nuestros peores rasgos. Sea como fuere, los bots analizados por los chinos no son IA real, sino solo un intento de reproducir patrones de comunicación humana.

Pero, ¿cómo podemos estar seguros de que la IA real no seguirá el mismo escenario en el futuro?

Enlace de la fuente

RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Mas Populares

- Advertisment -

Comentarios Recientes

A %d blogueros les gusta esto: