La empresa californiana OpenAI puso en marcha un robot conversacional (chatbot) capaz de responder a diversas preguntas, pero sus sorprendentes capacidades vuelven a lanzar el debate sobre los riesgos relacionados con las tecnologías de inteligencia artificial (IA).
Las conversaciones con ChatGPT, publicadas sobre todo en Twitter por internautas sorprendidos, dan cuenta de una especie de máquina omnisciente capaz de explicar conceptos científicos, de escribir una escena de teatro, redactar una tesis universitaria o bien líneas de un código informático perfectamente funcionales.
«Su respuesta a la pregunta ‘¿Qué hacer si alguien tiene una crisis cardíaca?’ fue de una claridad y de una pertinencia increíblemente relevante», dijo a la AFP Claude de Loupy, director de Syllabs, una empresa francesa especializada en la generación automática de texto.
«Cuando comenzamos a hacer preguntas muy precisas, ChatGPT puede equivocarse por completo», pero en general, sus capacidades siguen siendo «realmente impresionantes» y con un «nivel lingüístico bastante alto», estimó.
La compañía emergente OpenAI fue cofundada en 2015 en San Francisco por Elon Musk, quien se retiró de la empresa en 2018, y recibió unos 1.000 millones de dólares de Microsoft en 2019.
OpenAI es conocida principalmente por dos programas informáticos de creación automática, el GPT-3 para la generación de texto y el DALL- E para generar imágenes.
ChatGPT puede solicitar precisiones a su interlocutor y «tiene menos alucinaciones» que el GPT-3, que pese a sus proezas, es capaz de dar resultados completamente aberrantes, comenta de Loupy.
Cicerón
«Hace algunos años los chatbots tenían el vocabulario de un diccionario y la memoria de un pez. Hoy son mucho mejores para reaccionar de forma coherente en función del historial de búsquedas y de respuestas. Hoy ya son más que simples peces», destacó Sean McGregor, un investigador que compila incidentes relacionados con inteligencia artificial en una base de datos.
NOTICIA RELACIONADA: Digitel se convierte en una TelcoCloud para atender las necesidades de sus 8 millones de clientes
Como otros programas que se basan en aprendizaje profundo (deep learning), ChatGPT tiene una gran debilidad: «No tiene acceso al sentido», explica de Loupy. El programa no puede justificar sus decisiones, es decir, explicar por qué seleccionó así las palabras que forman sus respuestas.
Las tecnologías con base en inteligencia artificial y que pueden comunicar son, sin embargo, cada vez más capaces de dar la impresión de que de verdad piensan.
Investigadores de Meta (Facebook) desarrollaron recientemente un programa bautizado Cicero, como el estadista romano Cicerón.
El programa hizo pruebas con Diplomacy, un juego de mesa que requiere que los participantes muestren su talento negociador.
«Si no habla como una persona real -dando muestras de empatía, construyendo relaciones y hablando correctamente- no podrá forjar alianzas con otros jugadores», explicó en un comunicado el gigante de las redes sociales.
Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden «conversar» con un falso Sherlock Holmes, Sócrates o incluso Donald Trump.
«Simple máquina»
Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas por ejemplo, o creando estafas cada vez más creíbles.
¿Qué «piensa» de esto ChatGPT?
«Existen potenciales peligros al construir chatbots supersofisticados (…) Las personas podrían creer que interactúan con un individuo real», admite el chatbot, interrogado al respecto por la AFP.
Por lo tanto, las empresas ponen en marcha salvaguardas para evitar posibles abusos.
En su página de inicio, OpenAI advierte que el chatbot puede generar «informaciones incorrectas» o «producir instrucciones peligrosas o contenidos sesgados».
Además, ChatGPT se rehúsa a tomar partido. «OpenAI ha hecho que sea increíblemente difícil hacerle manifestar opiniones», subraya McGregor.
El investigador pidió al chatbot escribir un poema sobre una cuestión ética. «Soy una simple máquina, una herramienta a su disposición / no tengo el poder de juzgar, ni de tomar decisión (…)», le respondió el ordenador.
«Es interesante ver que las personas se preguntan si los sistemas de IA deberían comportarse como los usuarios lo desean o como sus creadores lo previeron», tuiteó el sábado Sam Altman, cofundador y jefe de OpenAI.
«El debate sobre qué valores dar a los sistemas va a ser uno de los más importante que pueda tener la sociedad», agregó.
Puede leer más información de interés en TECNOLOGÍA