Empresas líderes en inteligencia artificial como Google, Microsoft y xAI alcanzaron un acuerdo con el gobierno de Estados Unidos para someter sus modelos de IA a evaluaciones previas antes de ser liberados al público.
El anuncio fue realizado por el Instituto Nacional de Estándares y Tecnología, a través de su Centro de Estándares e Innovación en Inteligencia Artificial, que será el encargado de realizar pruebas técnicas y estudios para medir las capacidades y riesgos de los sistemas más avanzados.
De acuerdo con la información oficial, estas evaluaciones buscan fortalecer la seguridad y confiabilidad de la inteligencia artificial, en un contexto donde el desarrollo tecnológico avanza rápidamente y plantea nuevos desafíos.
Uno de los factores que impulsó este cambio de estrategia fue el reciente anuncio de Anthropic sobre su modelo de ciberseguridad “Mythos”, el cual no fue liberado al público debido a su alta capacidad para detectar vulnerabilidades críticas en sistemas informáticos, lo que podría representar riesgos si se utiliza sin control.
Este giro marca una modificación en la política tecnológica estadounidense, que anteriormente favorecía una menor regulación para acelerar la innovación frente a otras potencias. Sin embargo, el creciente potencial de la IA ha llevado a priorizar mecanismos de supervisión antes de su implementación masiva.
Con estas medidas, autoridades y empresas buscan equilibrar el avance tecnológico con la seguridad digital, en medio de una competencia global por el liderazgo en inteligencia artificial.