lunes, diciembre 5, 2022
InicioCuriosidadesLos científicos dicen que será imposible controlar la IA superinteligente

Los científicos dicen que será imposible controlar la IA superinteligente

La idea de acabar con la humanidad con inteligencia artificial se ha discutido durante décadas, y en 2021, los científicos dieron su veredicto sobre si se puede controlar la superinteligencia computacional de alto nivel.

Los científicos dijeron que el problema es que para controlar una superinteligencia que está mucho más allá de la comprensión humana, será necesario simular esa superinteligencia, que puede ser analizada y controlada. Pero si las personas no pueden entender esto, entonces es imposible crear tal simulación.

El estudio fue publicado en Revista de Investigación en Inteligencia Artificial .

Las reglas como «no dañar a las personas» no se pueden establecer si las personas no entienden qué escenarios tiene para ofrecer la IA, dicen los científicos. Una vez que un sistema informático se ejecuta a un nivel más allá de las capacidades de nuestros programadores, no se pueden establecer otros límites.

“La superinteligencia es un problema fundamentalmente diferente de los que generalmente se estudian bajo el lema ‘ética robótica’. Esto se debe al hecho de que la superinteligencia es multifacética y, por lo tanto, potencialmente capaz de movilizar una variedad de recursos para lograr objetivos potencialmente incomprensibles para los humanos, por no mencionar controlables”, escriben los investigadores.

Parte del razonamiento del equipo provino del problema de detención propuesto por Alan Turing en 1936. El problema de detención: ¿se detendrá o no un programa/algoritmo? Detener significa que el programa en la entrada dada lo aceptará y lo detendrá o lo rechazará y se detendrá y nunca entrará en un bucle infinito. Básicamente, detener significa terminar.

Como demostró Turing mediante matemáticas inteligentes, si bien podemos saber esto para algunos programas específicos, es lógicamente imposible encontrar una manera que nos permita saber esto para cada programa potencial que podría escribirse. Esto nos lleva de vuelta a la IA, que en un estado superinteligente podría almacenar todos los programas informáticos posibles en su memoria a la vez.

Cualquier programa escrito para evitar que la IA dañe a los humanos y destruya el mundo, por ejemplo, puede llegar a una conclusión (y detenerse) o no; es matemáticamente imposible para nosotros estar absolutamente seguros de todos modos, lo que significa que no es controlable. .

Los científicos dijeron que la alternativa a enseñar la ética de la IA y decirle que no destruya el mundo, algo de lo que ningún algoritmo puede estar absolutamente seguro, es limitar las capacidades de la superinteligencia.

“El estudio también rechazó esta idea, sugiriendo que limitaría el alcance de la inteligencia artificial; el argumento es que si no vamos a usarlo para resolver problemas más allá del alcance de los humanos, ¿por qué crearlo?

Si vamos a avanzar con la inteligencia artificial, es posible que ni siquiera sepamos cuándo llega una superinteligencia fuera de nuestro control, tal es su incomprensibilidad. Eso significa que debemos comenzar a hacer algunas preguntas serias sobre las direcciones en las que vamos”. los científicos notaron.

Enlace de la fuente

RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Mas Populares

- Advertisment -

Comentarios Recientes

A %d blogueros les gusta esto: