/ miércoles 15 de junio de 2022

La controvertida búsqueda de la inteligencia artificial "consciente"

Los programas basados en el aprendizaje automatizado son "formados" a partir de juegos de datos que abordan los conceptos de conciencia o identidad

¿Se están volviendo "conscientes" las tecnologías de inteligencia artificial?. Un ingeniero de Google fue suspendido por decir que sí y despertó un debate que está lejos de ser de ciencia ficción.

LaMDA, un programa informático de Google que genera robots que con que conversan (chatbots) "sabe claramente lo que quiere y lo que considera como derechos en tanto que persona", escribió el ingeniero de Google Blake Lemoine en la plataforma Medium.

En la empresa y en la comunidad científica esta opinión es considerada a veces absurda o, en el mejor de los casos, prematura.

Los programas basados en el aprendizaje automatizado son "formados" a partir de juegos de datos que abordan los conceptos de conciencia o identidad y son entonces capaces de provocar esa ilusión.

"Los programas que acceden a la Internet pueden responder cualquier pregunta" pero eso no los hace creíbles, dice la profesora Susan Schneider, fundadora de un centro de investigación en la Universidad Florida Atlantic.

Pese a sus objeciones a la teoría, Scheiner desaprueba las sanciones de Google contra Lemoine.

Google tiende a "intentar acallar los problemas éticos", dijo Scheiner. "Precisamos debates públicos sobre estos temas espinosos", afirmó.

"Cientos de investigadores e ingenieros conversaron con LaMDA y que sepamos nadie formuló esas afirmaciones ni antropofomizó LaMDA como hizo Blake", dijo Brian Gabriel, portavoz de Google.

- El poder de la imaginación -

Desde Pinocho hasta la película "Her", sobre un romance con un chatbot, la idea de una entidad no humana que cobra vida "está presente en nuestro imaginario", dijo Mark Kingwell, profesor de la universidad de Toronto (Canada)

"Resulta difícil respetar la distancia entre lo que imaginamos como posible y lo que es realmente posible", sostuvo.

Los sistemas de inteligencia artificial IA) se evaluaron durante mucho tiempo con el test de Turing: Si el evaluador conversa con un ordenador, sin darse cuenta de que no está hablando con una, la máquina ha "aprobado".

"Pero en 2022 es bastante fácil que una IA lo consiga", dijo el autor.

"Cuando enfrentamos palabras en una lengua que hablamos (...) creemos percibir lo que generan esas frases", afirma Emily Bender, experta en lingüística informática.

Los científicos son incluso capaces de dar una personalidad a un programa de IA.

"Podemos hacer, por ejemplo, un IA nervioso" con las conversaciones que podría tener una persona depresiva, explica Shashank Srivastava, profesora de ciencias informáticas de la universidad de Carolina del Norte.

Si además el chatbot está integrado a un robot humanoide con expresiones ultra realistas o si un programa escribe poemas o compone canciones, como ya ocurre, nuestros sentidos biológicos pueden ser fácilmente engañados.

"Nadamos en un revuelo mediático en torno a la IA", advierte Bender.

"Y se invierte mucho dinero ahí. Así que los empleados de este sector sienten que trabajan en algo importante, algo real, y no forzosamente tienen la distancia necesaria".

- "Futuro de la humanidad" -

¿Cómo se podría entonces determinar con exactitud si una entidad artificial se torna sensible y consciente?

"Si logramos reemplazar los tejidos neuronales por chips, sería una señal de que las máquinas potencialmente pueden ser conscientes", dijo Schneider.

La experta sigue de cerca los avances de Neuralink, una empresa fundada por Elon Musk para fabricar implantes cerebrales con fines médicos pero también para "asegurar el futuro de la humanidad, en tanto que civilización, en relación a la IA", según dijo el magnate.

Musk, dueño de Tesla y SpaceX, forma parte de quienes tienen la visión de que máquinas todopoderosas puedan tomar el control.

Para Mark Kingwell es a la inversa.

Si un día aparece un ente autónomo, capaz de manejar un lenguaje, desplazarse por sí solo y manifestar preferencias y debilidades "será importante no considerarlo un esclavo (...)y protegerlo", asegura.

¿Se están volviendo "conscientes" las tecnologías de inteligencia artificial?. Un ingeniero de Google fue suspendido por decir que sí y despertó un debate que está lejos de ser de ciencia ficción.

LaMDA, un programa informático de Google que genera robots que con que conversan (chatbots) "sabe claramente lo que quiere y lo que considera como derechos en tanto que persona", escribió el ingeniero de Google Blake Lemoine en la plataforma Medium.

En la empresa y en la comunidad científica esta opinión es considerada a veces absurda o, en el mejor de los casos, prematura.

Los programas basados en el aprendizaje automatizado son "formados" a partir de juegos de datos que abordan los conceptos de conciencia o identidad y son entonces capaces de provocar esa ilusión.

"Los programas que acceden a la Internet pueden responder cualquier pregunta" pero eso no los hace creíbles, dice la profesora Susan Schneider, fundadora de un centro de investigación en la Universidad Florida Atlantic.

Pese a sus objeciones a la teoría, Scheiner desaprueba las sanciones de Google contra Lemoine.

Google tiende a "intentar acallar los problemas éticos", dijo Scheiner. "Precisamos debates públicos sobre estos temas espinosos", afirmó.

"Cientos de investigadores e ingenieros conversaron con LaMDA y que sepamos nadie formuló esas afirmaciones ni antropofomizó LaMDA como hizo Blake", dijo Brian Gabriel, portavoz de Google.

- El poder de la imaginación -

Desde Pinocho hasta la película "Her", sobre un romance con un chatbot, la idea de una entidad no humana que cobra vida "está presente en nuestro imaginario", dijo Mark Kingwell, profesor de la universidad de Toronto (Canada)

"Resulta difícil respetar la distancia entre lo que imaginamos como posible y lo que es realmente posible", sostuvo.

Los sistemas de inteligencia artificial IA) se evaluaron durante mucho tiempo con el test de Turing: Si el evaluador conversa con un ordenador, sin darse cuenta de que no está hablando con una, la máquina ha "aprobado".

"Pero en 2022 es bastante fácil que una IA lo consiga", dijo el autor.

"Cuando enfrentamos palabras en una lengua que hablamos (...) creemos percibir lo que generan esas frases", afirma Emily Bender, experta en lingüística informática.

Los científicos son incluso capaces de dar una personalidad a un programa de IA.

"Podemos hacer, por ejemplo, un IA nervioso" con las conversaciones que podría tener una persona depresiva, explica Shashank Srivastava, profesora de ciencias informáticas de la universidad de Carolina del Norte.

Si además el chatbot está integrado a un robot humanoide con expresiones ultra realistas o si un programa escribe poemas o compone canciones, como ya ocurre, nuestros sentidos biológicos pueden ser fácilmente engañados.

"Nadamos en un revuelo mediático en torno a la IA", advierte Bender.

"Y se invierte mucho dinero ahí. Así que los empleados de este sector sienten que trabajan en algo importante, algo real, y no forzosamente tienen la distancia necesaria".

- "Futuro de la humanidad" -

¿Cómo se podría entonces determinar con exactitud si una entidad artificial se torna sensible y consciente?

"Si logramos reemplazar los tejidos neuronales por chips, sería una señal de que las máquinas potencialmente pueden ser conscientes", dijo Schneider.

La experta sigue de cerca los avances de Neuralink, una empresa fundada por Elon Musk para fabricar implantes cerebrales con fines médicos pero también para "asegurar el futuro de la humanidad, en tanto que civilización, en relación a la IA", según dijo el magnate.

Musk, dueño de Tesla y SpaceX, forma parte de quienes tienen la visión de que máquinas todopoderosas puedan tomar el control.

Para Mark Kingwell es a la inversa.

Si un día aparece un ente autónomo, capaz de manejar un lenguaje, desplazarse por sí solo y manifestar preferencias y debilidades "será importante no considerarlo un esclavo (...)y protegerlo", asegura.

Local

En economía Circular, casi 100 proyectos

En la fase 0 de la economía circular se desarrollaron 50 proyectos, de los cuales 80% están operando

Local

Casos de Covid-19 van a la baja

La semana que concluyó cerró con menos de tres mil contagios

Local

Cuatrimotos y alcohol, sin licencia en Bernal

Empresarios y ciudadanía exigen que los negocios clandestinos sean regularizados

Local

“Somos Querétaro” por tolerancia y paz

Primer estado con un programa para intervenir colonias y prevenir violencia

Deportes

Se cuelgan el tercer lugar

El equipo de Súper Mujer se lleva bronce en Municipal de Basquetbol de Querétaro

Local

Casos de Covid-19 van a la baja

La semana que concluyó cerró con menos de tres mil contagios

Local

Que el 5M no afectó inversión

13% ha sido el incremento de los productos de la canasta básica por la inflación

Local

En economía Circular, casi 100 proyectos

En la fase 0 de la economía circular se desarrollaron 50 proyectos, de los cuales 80% están operando

Local

Cuatrimotos y alcohol, sin licencia en Bernal

Empresarios y ciudadanía exigen que los negocios clandestinos sean regularizados