OMS Dispara Alarmas En Medio De Guerra Tecnológica Por La IA

En un contexto convulso de desinformación en redes, desequilibrio político, económico y sanitario, la OMS advierte peligro de la IA.
Por Victor Pablo Castellanos
Publicado junio 12, 2023 Actualizado junio 13, 2023

OMS Dispara Alarmas En Medio De Guerra Tecnológica Por La IA

By Victor Pablo Castellanos
Published junio 12, 2023 Updated junio 13, 2023

La Organización Mundial de la Salud (OMS) pidió prudencia en el uso de la Inteligencia Artificial (IA). La agencia de Naciones Unidas solicitó a los gobiernos del mundo que garanticen la seguridad del uso de los llamados logaritmos predictivos que simulan la ‘inteligencia humana’ en asuntos como el aprendizaje, el reconocimiento de patrones o el aprendizaje, antes de que se generalice su uso en la medicina.

A través de un boletín de prensa del pasado 16 de mayo, la OMS, “pide precaución en el uso de herramientas que se sirven de grandes modelos lingüísticos generados por IA” esta alarma es para proteger y promover la seguridad, autonomía y bienestar de las personas, y además preservar la salud pública.

La advertencia desde Naciones Unidas contrasta con el anuncio, el jueves 8 de junio, de la llamada “Declaración del Atlántico” suscrita por el presidente de Estados Unidos, Joseph Biden y el primer ministro de Reino Unido, Rishi Sunak, en la que se comprometen a impulsar el desarrollo de la IA, que se perfila como una declaración de guerra tecnológica por la IA a China.

Y es que mientras la OMS advierte a los gobiernos de peligros potenciales como alimentar los algoritmos con datos sesgados que pueden generar información engañosa e inexacta, o la difusión de discursos que pueden parecer autorizados y plausibles y en realidad sean maliciosos y dañinos, desde los gobiernos pareciera que plantean una guerra sin cuartel para desarrollar al máximo la IA.

¿Puede usarse la IA para difundir mentiras y mensajes falsos y dañinos?

La alarma que dispara la OMS advierte del riesgo de que se generen imágenes hiperrealistas o textos sumamente convincentes que confundan al público y los convenza de adoptar medidas y actitudes perjudiciales, a través de herramientas que se encuentran al alcance de todos, incluso de quienes puedan interesarse en dañar la salud.

“Entre dichas herramientas se cuentan algunas de las plataformas más pujantes, como ChatGPT, Bard, Bert y muchas otras que imitan el razonamiento, los procesos y la producción de la comunicación humana. Su meteórica difusión pública y creciente uso experimental en el ámbito de la salud está generando un considerable entusiasmo en torno a su potencial para atender necesidades de salud”, advierte la prensa de la ONU.

Luego, la institución exhorta a “examinar cuidadosamente los riesgos que conlleva utilizar dichos modelos lingüísticos en la mejora del acceso a la información de salud, como herramienta de apoyo a la toma de decisiones, o incluso para fomentar la capacidad de diagnóstico en entornos de escasos recursos con el fin de proteger la salud de las personas y reducir la inequidad”.

Alerta en un contexto convulso

A la advertencia de la OMS se presenta en un actual contexto de desinformación que circula en redes, propagación de ideologías radicales y de acceso masivo de grupos de odio y fascistas a los medios masivos, así como el advenimiento de esos grupos radicales al poder político alrededor del mundo.

“Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos, en apoyo del personal de salud, los pacientes, la investigación y la ciencia, ha manifestado su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos”, señala el organismo y apunta a la importancia de “la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor en las evaluaciones”.

En otras palabras, la alarma que dispara la OMS advierte del peligro de la propagación de mentiras, a través de textos, audios, fotos y videos falsos pero hiperrealistas; cada vez más convincentes. También lanza una alerta respecto al sesgo en el desarrollo de las llamadas ‘respuestas intuitivas’ generadas por IA.

“La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo”, señala la OMS.

CoinGape Twitter

El contenido presentado puede incluir la opinión personal del autor y está sujeto a las condiciones del mercado. Investigue el mercado antes de invertir en criptomonedas. El autor o la publicación no asumen ninguna responsabilidad por sus pérdidas financieras personales.

Cargando Siguiente Noticia