/ lunes 18 de abril de 2022

Robots serán cada vez más creativos

Las nuevas generaciones de sistemas de aprendizaje están causando sensación con su increíble capacidad para generar trabajo creativo de toda índole

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Local

Alistan plan emergente por sequía, en Querétaro

Lanzan campaña social denominada “¡Cuidemos el agua juntos!” y programa de detección de fugas

Local

Supervisa Nava obras en Milenio III

Alcalde verificó la rehabilitación de espacios e imagen urbana de las calles y parque de la colonia

Finanzas

Marisquerías queretanas crecen 70% su inventario

Comerciantes se adelantan a las compras que los clientes realizan en Semana Santa; consumen más el filete de pescado y los camarones, afirman

Local

Acuífero queretano con déficit de 90% 

Es uno de los cinco estados que enfrentan el mayor problema de desgaste hídrico, revela estudio 

Local

Esperan que 10 mil personas visiten las iglesias del centro este Jueves Santo

Visita de los siete templos es una de las tradiciones más significativas de la Semana Santa

Cultura

Semana Santa en Querétaro: así se viven las tradiciones en Querétaro

El cronista queretano, Alfonso Camacho González, platica sobre el significado que tienen estas fechas en el estado