Desde películas apocalípticas hasta comedias en cualquier formato, la cultura popular magnifica el alcance que puede registrar la llamada Inteligencia Artificial (IA). El uso de los llamados softwares intuitivos incluye una enorme gama de aplicaciones: desde ayudar a un estudiante a hacer sus deberes escolares, pasando por casinos, o diagnósticos médicos más precisos, automatización de procesos con bots y cobots (robots colaborativos), llegando a mejoras de marketing y las imágenes generadas por texto.
Sin embargo, el acceso a esta tecnología por parte del público general y viceversa, es decir, al acceso de la tecnología ‘intuitiva’ a los datos de los usuarios con el fin de ‘aprender’, se ha vuelto un tema de debate intenso que involucra a personajes más relevantes del acontecer tecnológico mundial.
Japón pone freno a ChatGPT
Una de las aplicaciones de acceso público más importantes de IA es la que se usa para interactuar vía chat con un bot de asistencia, el popular ChatGPT, de OpenAI, misma que el pasado viernes 2 de junio recibió del agente regulador de Japón una advertencia respecto a la recopilación de los datos de los usuarios, informó la agencia estadounidense de noticias Reuters.
Según el reporte, OpenAI deberá, por indicaciones del organismo nipón de control de privacidad, “minimizar los datos confidenciales que recopila para el aprendizaje automático”, según un comunicado de la Comisión de Protección de Información Personal en el país asiático. El ente regulador señaló que “podría tomar más medidas si tiene más preocupaciones”.
¿Hay interese particulares o se trata de ‘salvar al mundo’?
Revisando cuidadosamente, se puede encontrar que la polémica podría ser menos moral y más motivada por intereses económicos de poderosos actores en busca de dominar el mercado de ‘la tecnología que cambia al mundo’.Y es que las advertencias de las autoridades japonesas llegan dos meses después de una carta abierta en la que más de mil ‘personalidades de la tecnología’ pidieron que se detenga el desarrollo de la IA por al menos seis meses.
Quizá la figura más relevante entre los firmantes de esa carta publicada por el instituto Future of Life, pidiendo “pausar los gigantescos experimentos de Inteligencia Artificial”, es el multimillonario Elon Musk, fundador de emblemáticas empresas como Tesla y SpaceX, la empresa que se propone llevar a la humanidad hasta el planeta Marte, quien además es cofundador de OpenAI, la matriz de CahtGPT, y se retiró de ella en 2018.
Otro dato relevante, señalado por Reuters, es que el Instituto Future of Life está financiado principalmente por la Fundación Musk. Además de los más de mil destacados tecnólogos, la misiva es suscrita, hasta ahora, por más de 31 mil 800 personas.
La carta de Future of Life
En su carta, Future of Life urge a los Gobiernos a acelerar “dramáticamente” marcos regulatorios “capaces” de vigilar el desarrollo de los sistemas y configurar protocolos para resarcir posibles daños. Quizá el regulador nipón es un entusiasta de esa iniciativa.
Señala además que su petición no es para que dejar de investigar la IA, sino buscar una forma distinta a la actual.
“Los laboratorios de inteligencia artificial y los expertos independientes deberían aprovechar la pausa para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad para los diseños más avanzados que sean auditados y asegurados por expertos independientes”, dice.
Como si se tratara de una obra de ciencia ficción, el instituto señala que “los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad” y pregunta “¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.
Posteriormente sentencia que “tales decisiones no deben delegarse en líderes tecnológicos no elegidos”.
Vale destacar que la petición de ‘pausar’ el desarrollo de la IA por parte del instituto Future of Life no es sólo para OpenAI, sino para todos los que desarrollan la tecnología, entre los que cuentan modelos de lenguaje GPT-3 y GPT-4 de OpenAI, junto a su chatbots como ChatGPT, y DALL·E con el cual los usuarios prear imágenes a partir de instrucciones textuales, también los sistemas Midjourney, también de generación de imagen a partir de textos y productos de otros laboratorios como Bing Chat, Stable Diffusion y Bard.
Entre los más de mil prestigiosos ‘líderes de opinión en materia tecnológica’ que firman la misiva advirtiendo que los creadores de dicha tecnología no alcanzan a comprender, y menos a predecir el alcance de la IA, están Jaan Tallinn, cofundador de Skype, y Steve Wozniak, cofundador de Apple.
Musk y dos vertientes divergentes de su petición
La solicitud de pausar la Inteligencia Artificial por parte de Musk se soporta sobre dos argumentos que, al parecer no son del todo compatibles, por un lado está la alerta sobre las implicaciones morales y éticas que esboza el texto de Future of Life, pero en otro sentido se pregunta si tanto poder debería recaer en el monopolio del gigante tecnológico Microsoft, cofundado por otro multimillonario, el reconocido Bill Gates.
En una entrevista a la cadena de noticias FOX, de EEUU, Elon Musk advirtió que la inteligencia artificial podría llevar a la “destrucción de la civilización”, reseñó CNN en español.
La cadena de noticias en español enfatizó que la crítica de Musk ocurre “mientras (el magnate) sigue profundamente involucrado en el crecimiento de la IA a través de sus muchas empresas, incluida una nueva empresa que se rumorea”.
“La IA es más peligrosa que, por ejemplo, un mal diseño de un avión o un mal mantenimiento de la producción o una mala fabricación de un automóvil, en el sentido de que tiene el potencial –por pequeña que sea la probabilidad, pero no es trivial– de destruir la civilización”, dijo Musk en su entrevista con Tucker Carlson emitida en abril pasado.
Gates es uno de los más importantes contendientes de Musk en la carrera tecnológica y ambos ocuparon el puesto de la persona más rica del mundo, que recientemente recuperó el fundador de Tesla.
Precisamente, a través de la firma automotriz de vehículos eléctricos, Musk estaría desarrollando la Inteligencia Artificial para la conducción automatizada de vehículos, misma que solicita que sea pausada por seis meses.
Según reportó el sitio Hoy Cripto, el CEO de Tesla criticó como, luego de que Microsoft compró OpenAI, (lo cual habría ocurrido tras la negativa de Musk a seguir fianaciando el proyecto tras renunciar a él) ésta pasó a ser “una máquina de hacer dinero” y dijo también que esa nunca fue la intención al fundarla.
¿Frustración de Musk?
Pero la guerra de Musk contra la IA, con especial énfasis en OpenAI, es según reportes de la revista Forbes, producto de la frustración, luego que la empresa prosperó inmediatamente después de su salida. Y es que sus críticas a la rentabilidad de la empresa parecen contradictorias viniendo de un empresario que en el año 2023 volvió a ostentar el puesto del hombre más rico del mundo.
“Musk estaba perfectamente feliz con el desarrollo de herramientas de inteligencia artificial a una velocidad vertiginosa cuando estaba financiando OpenAI. Pero ahora que dejó OpenAI y lo vio convertirse en el favorito en una carrera por la tecnología más avanzada para cambiar el mundo, quiere que todo se detenga durante seis meses”, señala el artículo de Forbes.
“Si fuera un apostador, diría que Musk cree que puede presionar a sus ingenieros para que lancen su propia IA avanzada en un plazo de seis meses. No es más complicado que eso”, agrega Matt Novak, autor del texto, “Musk ya no está involucrado en OpenAI y está frustrado porque aún no tiene su propia versión de ChatGPT”, agrega.
En términos generales, el texto de Forbes señala que Musk intentó hacerse CEO de OpenAI y tras encontrar férrea resistencia decidió separase con la promesa de continuar aportando fondos para la investigación de IA, compromiso que no habría cumplido y obligó a la empresa de código abierto a volverse privada y adquirida por la Microsoft de Bill Gates.
Al respecto, el medio Semafor aseguró, a mediados de marzo, que “Musk (…) se alejó de la empresa y renegó de una donación masiva planificada. Las consecuencias de ese conflicto, que culminaron con el anuncio de la partida de Musk el 20 de febrero de 2018, darían forma a la industria que está cambiando el mundo y a la empresa en el centro de la misma”.
OpenAI respondió
Por su parte, Greg Brockman, cofundador y presidente de OpenAI, señaló en una entrevista a la revista The Information que Musk y otros críticos tienen razón, sin embargo su señalamiento no fue por su tendencia al lucro, sino refiriendo algunas líneas que la IA no debe traspasar.
Según la entrevista a Brockman publicada en The Information el Musk avivó una creciente guerra cultural respecto a la inteligencia artificial tras confirmar sus planes de desarrollar una alternativa “anti-despertar” a ChatGPT de OpenAI.
La respuesta de Brockman a Musk y otros críticos fue que éstos “tienen razón (…) que la puesta en marcha (de ChatGPT) no se movió lo suficientemente rápido para dar a los usuarios una mayor capacidad de personalizar el comportamiento del chatbot”, pero lo señaló respecto a las críticas respecto a inexactitudes en las respuestas del bot y acusaciones de hay “sesgo político de izquierda” en los resultados que arroja el algoritmo intuitivo.
“Cometimos un error”, dijo Brockman, efectivamente y agregó “nuestro objetivo no es tener una IA que esté sesgada en una dirección particular”, pero esa respuesta no tuvo que ver con la crítica hacia haber convertido a OpenAI en “una máquina de hacer dinero” que se le atribuye a Musk. El director de OpenAI también habría señalado que “hay algunas líneas que las IA nunca deberían cruzar”.
Posibles riesgos de la IA
Entre las funcionalidades de la IA destaca, cual si se tratara de un juego, la generación de imágenes hiperrealistas que podrían causar daño si se difunden sin el debido contexto y la necesaria advertencia de que son simulaciones ideadas por ordenador.
Un ejemplo de esto es el último episodio de fake news en el caso Trump. En este contexto, hace pocas semanas un tribunal de Nueva York imputó y halló culpable al magnate exmandatario de acoso sexual en una demanda civil. Al momento de ser llamado a declarar para enfrentar los cargos, ese tribunal emitió una orden para que él se presentara en la corte, misma que el exjefe de Estado acató.
Sin embargo, a través de la IA se generaron imágenes hiperrealistas en las que se veía a Trump siendo brutalmente arrestado. Con el antecedente de 2022, donde miles de extremistas asaltaron, con armas de fuego, lanzas, y antorchas el Capitolio de EEUU, en un espectáculo que efectivamente pareció la distopía de algún genial autor, tal imagen resulta irresponsable.
Otro peligro que se le atribuye a la IA está en confiarle que tome decisiones que impliquen peligro de muerte, como la conducción ‘totalmente automática’ de un vehículo que propone Tesla, de Elon Musk, automóvil que, sin necesidad de alcanzar velocidades extremas, podría causar graves lesiones, e incluso decesos, durante una colisión.