Tendencias

Gobierno de EE. UU. firma acuerdo con las principales empresas de IA para que garanticen estándares de seguridad en sus plataformas

Imagen principal
Freepik
POR Diego Zárate |

Siete compañías, incluyendo a Meta, Google y OpenAI, firmaron un acuerdo para regular el desarrollo de estas herramientas y evitar vulneraciones a la privacidad, derechos de autor y a la difusión de la desinformación.

El gobierno de Estados Unidos puso presión sobre las compañías desarrolladoras de inteligencia artificial (IA) para que garanticen estándares de seguridad alrededor de estas herramientas. Este viernes siete de las empresas líderes en este tipo de tecnologías se reunirán con el presidente Joe Biden para firmar un acuerdo para avanzar en distintas medidas en conjunto.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI anunciarán durante esta jornada su compromiso con la solicitud de la Casa Blanca y seguramente revelarán nuevas funciones o actualización que vayan en favor de aumentar la confianza de estas plataformas.

Gobierno de EE. UU. firma acuerdo con las principales empresas de IA para que garanticen estándares de seguridad en sus plataformas

El debate en torno a los riesgos de la IA ha crecido durante el último tiempo. En diversos congresos se ha comenzado a analizar los efectos que tengan sobre empleos, la creatividad y el estancamiento de la raza humana por el mal uso de estas tecnologías.

Asimismo, la lucha contra la desinformación y falsificación tanto de datos como de identidades también ha tomado relevancia en torno a estas plataformas. El uso de las IA para recrear imágenes, videos, música y hasta voces de personas reales se ha comenzado a hacer cada vez de forma más masiva sin una regulación real detrás de ellas.

El gobierno de EE. UU. advirtió que ya se está trabajando en una orden ejecutiva que iría más allá de los anuncios entregados hoy y que apoyan el desarrollo de una legislación bipartidista sobre esta temática.

Las siete empresas deberán regular e informar de estas modificaciones, sin embargo, acordaron puntos clave que deberán compartir todos los productos y plataformas que correspondan al desarrollo de la IA.

  • Pruebas de seguridad de sus productos de IA, realizada por expertos independientes y compartir la información sobre sus productos con gobiernos y otros organismos que intentan gestionar los riesgos de la tecnología.
  • Asegurar que los consumidores puedan detectar material generado por IA mediante la implementación de marcas de agua u otros medios para identificar el contenido generado.
  • Informar públicamente las capacidades y limitaciones de sus sistemas de forma regular, incluidos los riesgos de seguridad y la evidencia de sesgo.
  • Implementar herramientas avanzadas de inteligencia artificial para abordar los mayores desafíos de la sociedad, como curar el cáncer y combatir el cambio climático.
  • Realizar investigaciones sobre los riesgos de sesgo, discriminación e invasión de la privacidad por la difusión de herramientas de IA.

No obstante, Estados Unidos no es el único país con prisa en regular esta tecnología. La Unión Europea informó el mes pasado sobre una legislación que pondría límites estrictos al uso de las IA, como por ejemplo, incluir el reconocimiento facial en sus herramientas y que todas las empresas desarrolladoras divulguen datos e información detallada de sus productos.