martes, octubre 4, 2022
InicioCuriosidadesEs posible que tenga un gemelo digital antes de lo que piensa

Es posible que tenga un gemelo digital antes de lo que piensa

Un gemelo digital es una copia de una persona, producto o proceso que se crea utilizando datos. Esto puede parecer ciencia ficción, pero algunos afirman que es probable que tengas un doble de riesgo digital en la próxima década.

Como copia de una persona, un gemelo digital, idealmente, tomaría las mismas decisiones que usted si tuviera los mismos materiales.

Esto podría parecer más una afirmación especulativa de los futuristas. Pero es mucho más posible de lo que a la gente le gustaría creer.

Si bien podemos suponer que somos especiales y únicos, con suficiente información, la inteligencia artificial (IA) puede hacer muchas inferencias sobre nuestras personalidades, comportamiento social y decisiones de compra.

La era de los grandes datos significa que se recopilan grandes cantidades de información (llamadas «lagos de datos») sobre sus actitudes y preferencias evidentes, así como sobre los rasgos de comportamiento que deja atrás.

Igualmente sorprendente es la medida en que las organizaciones recopilan nuestros datos. En 2019, Walt Disney Company adquirió Hulu, una empresa que los periodistas y defensores han señalado que tiene un historial cuestionable en lo que respecta a la recopilación de datos.

Las aplicaciones telefónicas aparentemente benignas, como las que se usan para pedir café, pueden recopilar cantidades masivas de datos de los usuarios cada pocos minutos.

El escándalo de Cambridge Analytica ilustra estas preocupaciones, con usuarios y reguladores preocupados por las perspectivas de que alguien pueda identificar, predecir y cambiar su comportamiento.

Pero, ¿cuánto debemos preocuparnos?

alta vs baja fidelidad

En los estudios de simulación, la fidelidad se refiere a qué tan cerca una copia o modelo coincide con su objetivo. La fidelidad del simulador se refiere al grado de realismo que tiene una simulación en relación con las referencias del mundo real. Por ejemplo, un videojuego de carreras proporciona una imagen que se acelera y se ralentiza cuando pulsamos teclas en un teclado o mando.

Mientras que un simulador de conducción puede tener parabrisas, chasis, palanca de cambios y pedales de acelerador y freno, un videojuego tiene un menor grado de fidelidad que el simulador de conducción.

Un gemelo digital requiere un alto grado de fidelidad que podría incorporar información en tiempo real del mundo real: si está lloviendo afuera en este momento, está lloviendo en el simulador.

En la industria, los gemelos digitales pueden tener implicaciones radicales. Si somos capaces de modelar un sistema de interacción hombre-máquina, tendremos la capacidad de asignar recursos, anticipar fallas y averías y hacer proyecciones.

Un gemelo digital humano incorporaría una gran cantidad de datos sobre las preferencias, los sesgos y los comportamientos de una persona, y podría recopilar información sobre el entorno físico y social inmediato de un usuario para hacer predicciones.

Estos requisitos significan que lograr un verdadero gemelo digital es una posibilidad remota en el futuro previsible. La cantidad de sensores necesarios para acumular los datos y la capacidad de proceso necesaria para mantener un modelo virtual del usuario sería grande. En la actualidad, los desarrolladores están contentos con un modelo de baja fidelidad.

cuestiones éticas

Producir un gemelo digital plantea problemas sociales y éticos relacionados con la integridad de los datos, la precisión predictiva de un modelo, las capacidades de vigilancia necesarias para crear y actualizar un gemelo digital y la propiedad y el acceso a un gemelo digital.

A menudo se cita al primer ministro británico, Benjamin Disraeli, diciendo: “Hay tres tipos de mentiras: mentiras, malditas mentiras y estadísticas”, lo que implica que las cifras no son fiables.

Los datos recopilados sobre nosotros se basan en la recopilación y el análisis de estadísticas sobre nuestros comportamientos y hábitos para hacer predicciones sobre cómo nos comportaríamos en ciertas situaciones.

Este sentimiento refleja un malentendido sobre cómo los estadísticos recopilan e interpretan los datos, pero plantea una preocupación importante.

Uno de los problemas éticos más importantes con un gemelo digital está relacionado con la falacia cuantitativa, que supone que los números tienen un significado objetivo divorciado de su contexto.

Cuando miramos números, a menudo olvidamos que tienen significados específicos que provienen de los instrumentos de medición que se usan para recopilarlos. Y un instrumento de medición puede funcionar en un contexto pero no en otro.

Al recopilar y usar datos, debemos reconocer que la selección incluye ciertas características y no otras. A menudo, esta selección se hace por conveniencia o debido a las limitaciones prácticas de la tecnología.

Debemos ser críticos con cualquier afirmación basada en datos e inteligencia artificial porque las decisiones de diseño no están disponibles para nosotros. Debemos comprender cómo se recopilaron, procesaron, usaron y presentaron los datos.

desequilibrios de poder

El desequilibrio de poder es una discusión creciente en el público, cuando se trata de datos, privacidad y vigilancia.

En escalas más pequeñas, esto puede producir o aumentar las brechas digitales: la brecha entre quienes tienen y quienes no tienen acceso a las tecnologías digitales. A mayor escala, esto amenaza con un nuevo colonialismo basado en el acceso y control de la información y la tecnología.

Incluso la creación de gemelos digitales de baja fidelidad brinda oportunidades para monitorear a los usuarios, hacer inferencias sobre su comportamiento, tratar de influir en ellos y representarlos ante otras personas.

Si bien esto puede ayudar en entornos de atención médica o educación, no brindar a los usuarios la capacidad de acceder y evaluar sus datos puede amenazar la autonomía individual y el bien colectivo de la sociedad.

Los interesados ​​no tienen acceso a los mismos recursos que las grandes corporaciones y los gobiernos. No tienen el tiempo, el entrenamiento y tal vez la motivación. Se necesita una supervisión constante e independiente para garantizar que se preserven nuestros derechos digitales.

Jordan Richard Schoenherr, Profesor Asistente, Psicología, Universidad de Concordia.

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. leer el artículo original.

Enlace de la fuente

RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Mas Populares

- Advertisment -

Comentarios Recientes

A %d blogueros les gusta esto: