sábado, junio 22, 2024
InicioCuriosidadesHistoriador comparó la inteligencia artificial con las armas nucleares

Historiador comparó la inteligencia artificial con las armas nucleares

historiador israelí y autor de bestsellers Sapiens: una breve historia de la humanidad Yuval Noah Harari compartió sus preocupaciones sobre el desarrollo de redes neuronales en un artículo para The Economist. Argumenta que la falta de control sobre estos programas puede tener consecuencias más graves que las armas nucleares.

Harari cree que las redes neuronales pueden desarrollarse sin intervención humana, a diferencia de las armas nucleares, que requieren la participación humana en cada etapa. Además, la inteligencia artificial (IA) puede crear una mejor versión de sí misma y comenzar a desinformar a las personas, generando contenido político y noticias falsas.

“Aunque las armas nucleares no pueden inventar armas nucleares más poderosas, la inteligencia artificial puede hacer que la inteligencia artificial sea exponencialmente más poderosa”, señaló el científico.

Harari aboga por el uso de redes neuronales para buenos propósitos, como resolver problemas ambientales o desarrollar medicamentos contra el cáncer. También enfatiza la importancia de monitorear el desarrollo de estos programas para evitar posibles escollos.

Un ejemplo de cómo se pueden usar las redes neuronales sin control es el experimento de científicos chinos con el satélite espacial Qimingxing 1. El programa eligió los puntos más interesantes de la Tierra e instruyó al dispositivo para que los estudiara, lo que resultó ser de interés para el militar chino.

Ni una sola persona interfirió con el experimento, lo que podría ser un precedente peligroso.

Harari también arrojó luz sobre cómo la IA puede formar relaciones íntimas con las personas e influir en sus decisiones. “A través de su dominio del lenguaje, la IA puede incluso entablar relaciones íntimas con las personas y usar el poder de la intimidad para cambiar nuestras opiniones y visiones del mundo”, escribió.

Para demostrarlo, citó el ejemplo de Blake Lemoine, un ingeniero de Google que perdió su trabajo después de afirmar públicamente que el chatbot de IA LaMDA se había vuelto sensible. Según el historiador, la controvertida afirmación le costó el puesto a Lemoine. Preguntó si la IA puede influir en las personas para que arriesguen sus trabajos, ¿qué más podría inducirlos a hacer?

A la luz de estas circunstancias, Harari insta a la sociedad y los gobiernos de todo el mundo a monitorear de cerca el desarrollo de las redes neuronales y tomar medidas para protegerse contra su posible impacto negativo.

¡Saludos, explorador! Agradecemos sinceramente a nuestros seguidores por sus generosas donaciones que mantienen vivo anomalien.com. Si desea unirse a la causa y ayudarnos a continuar entregando artículos increíbles, considere hacer un Donación. ¡Mantengamos la 👽 sonriendo!Siga con nosotros Instagram, gorjeo Es Telegrama ¡para obtener contenido extra interesante y misterioso!



Enlace de la fuente

RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Anuncio - Hosting Web de SiteGround - Diseñado para una fácil administración web. Haz clic para saber más.

Mas Populares

- Advertisment -

Comentarios Recientes