"El nuevo generador de texto falso de AI puede ser demasiado peligroso para liberarlo" los creadores

OpenAI, la empresa sin fines de lucro respaldada por Elon Musk, se niega a publicar investigaciones públicamente por temor a un mal uso


Redacción: Bandera Online



Los creadores de un sistema revolucionario de inteligencia artificial que puede escribir noticias y obras de ficción, apodadas "deepfakes for text", han dado el paso inusual de no publicar su investigación públicamente, por temor a un posible mal uso.

OpenAI, una compañía de investigación sin fines de lucro respaldada por Elon Musk, Reid Hoffman, Sam Altman y otros, dice que su nuevo modelo de AI, llamado GPT2 es tan bueno y el riesgo de uso malicioso es tan alto que se está rompiendo de su práctica habitual de liberar el Investigación completa al público para permitir más tiempo para discutir las ramificaciones del avance tecnológico.

En su núcleo, GPT2 es un generador de texto. El sistema AI se alimenta con texto, desde unas pocas palabras hasta una página completa, y se le pide que escriba las siguientes oraciones basándose en sus predicciones de lo que debería venir a continuación. El sistema está empujando los límites de lo que se creía posible, tanto en términos de la calidad de la producción como de la amplia variedad de usos potenciales.

Cuando se usa simplemente para generar nuevo texto, GPT2 es capaz de escribir pasajes plausibles que coinciden con lo que se da en estilo y tema. Rara vez muestra alguno de los caprichos que marcan los sistemas de inteligencia artificial anteriores, como olvidar lo que se escribe sobre la mitad de un párrafo o alterar la sintaxis de las oraciones largas.

Aliméntelo con la línea de apertura de los diecinueve ochenta y cuatro de George Orwell: "Fue un día brillante en abril, y los relojes dieron las trece", y el sistema reconoce el tono vago futurista y el estilo novelístico, y continúa con:

“Estaba en mi auto camino a un nuevo trabajo en Seattle. Puse el gas, puse la llave y luego lo dejé correr. Acabo de imaginar cómo sería el día. Cien años a partir de ahora. En 2045, fui profesor en alguna escuela en una zona pobre de la China rural. Comencé con la historia china y la historia de la ciencia ".

Aliméntelo con los primeros párrafos de una historia de The Guardian sobre Brexit, y su salida es una prosa de periódico plausible, repleta de "citas" de Jeremy Corbyn, menciones de la frontera irlandesa y respuestas del portavoz del primer ministro.

Uno de esos párrafos, completamente artificial, dice: "Cuando se le pidió que aclarara los informes, un portavoz de May dijo: 'La PM ha dejado absolutamente claro que su intención es salir de la UE lo más rápido posible y que estará bajo su mandato de negociación. Como se confirmó en el discurso de la reina la semana pasada ".

Desde el punto de vista de la investigación, el GPT2 es innovador de dos maneras. Uno es su tamaño, dice Dario Amodei, director de investigación de OpenAI. Los modelos "eran 12 veces más grandes, y el conjunto de datos era 15 veces más grande y mucho más amplio" que el anterior modelo de IA avanzado. Se formó en un conjunto de datos que contiene aproximadamente 10 millones de artículos, seleccionados al rastrear el sitio de noticias sociales Reddit para enlaces con más de tres votos. La vasta colección de texto pesaba 40 GB, suficiente para almacenar cerca de 35,000 copias de Moby Dick.

La cantidad de datos en los que se entrenó GPT2 afectó directamente su calidad, lo que le da un mayor conocimiento de cómo entender el texto escrito. También condujo a la segunda brecha. GPT2 es mucho más general que los modelos de texto anteriores. Al estructurar el texto que se ingresa, puede realizar tareas que incluyen traducción y resumen, y pasar pruebas de comprensión de lectura simples, que a menudo se desempeñan tan bien o mejor que otras IA que se han desarrollado específicamente para esas tareas.

Sin embargo, esa calidad también ha llevado a OpenAI a ir en contra de su misión de impulsar a AI y mantener el GPT2 a puerta cerrada para el futuro inmediato mientras evalúa lo que los usuarios malintencionados podrían hacer con él. "Necesitamos realizar experimentos para descubrir qué pueden y qué no pueden hacer", dijo Jack Clark, jefe de política de la organización. "Si no puedes anticipar todas las habilidades de un modelo, tienes que empujarlo para ver qué puede hacer. Hay muchas más personas que nosotros que piensan mejor lo que puede hacer maliciosamente ".

Para mostrar lo que eso significa, OpenAI hizo una versión de GPT2 con algunos ajustes modestos que se pueden usar para generar infinitas revisiones de productos positivas o negativas. El spam y las noticias falsas son otras dos desventajas potenciales obvias, al igual que la naturaleza no filtrada de la AI. Como se capacita en Internet, no es difícil alentarlo a generar texto intolerante, teorías de conspiración, etc.

¿Puede una computadora ser creativa? Chips con todo el podcast

En cambio, el objetivo es mostrar lo que es posible preparar al mundo para lo que será la corriente principal en un año o dos. "Tengo un término para esto. La escalera mecánica del infierno ", dijo Clark. "Siempre está reduciendo el costo de la tecnología y bajando el precio. Las reglas por las cuales se puede controlar la tecnología han cambiado fundamentalmente.

"No estamos diciendo que sabemos lo que hay que hacer aquí, no estamos estableciendo la línea y diciendo" este es el camino "... Estamos tratando de desarrollar un pensamiento más riguroso aquí. Estamos tratando de construir la carretera mientras viajamos a través de ella ".



Contenido Creado en www.tiendabandera.com


Si encuentras un error en este Website, por favor infórmanos para corregirlo aquí