Google compartió un documento de seguridad sobre su modelo insignia de inteligencia artificial, Gemini 2.5 Pro. Los expertos dicen que deja los riesgos clave inexplicables.
La compañía publicó el documento el jueves, varias semanas después de que lanzó Gemini 2.5 Pro a los clientes. El documento enumera las pruebas internas que Google realizó en el modelo, pero ofrece pocos hechos sobre cómo el sistema se comporta bajo sobrecarga o mal uso. Los investigadores que revisaron el periódico le dijeron a TechCrunch que los detalles faltantes hacen que sea difícil juzgar si Gemini 2.5 Pro es realmente seguro para un uso amplio.
Los informes técnicos son una de las principales formas en que el público aprende lo que los sistemas de IA avanzados pueden y no pueden hacer. Un informe exhaustivo a menudo muestra dónde falla un modelo y dónde podría ser mal utilizado. Muchos investigadores de IA tratan estos documentos como esfuerzos honestos para respaldar los reclamos de seguridad de una empresa.
Google lanza un informe solo después de que un modelo ya no se etiqueta como "experimental", y mueve ciertos hallazgos de "capacidad peligrosa" a una auditoría separada que no se publica a la vez. Como resultado, el documento público no cubre todas las amenazas por la que Google ha probado.
Varios analistas dijeron que el nuevo documento Gemini 2.5 Pro es un caso marcado de divulgación limitada. También se dieron cuenta de que el informe nunca se refiere al Marco de Seguridad Fronteriza de Google, o FSF, una política que la compañía anunció el año pasado para detectar futuros poderes de IA que podrían causar un "daño severo".
"Este informe es muy escaso, contiene información mínima y llegó semanas después de que el modelo se hizo público", dijo Peter Wildeford, coprotagonista del Instituto de Política y Estrategia de AI. "Es imposible confirmar si Google está cumpliendo sus propias promesas y, por lo tanto, imposible juzgar la seguridad de sus modelos".
Thomas Woodside, coprotagonista del proyecto Secure AI, dijo que estaba contento de que cualquier artículo hubiera aparecido en absoluto, pero dudó del plan de Google de lanzar seguimientos constantes. Señaló que la última vez que la empresa compartió los resultados de las pruebas de capacidad peligrosa fue en junio de 2024, y ese documento cubrió un modelo anunciado en febrero del mismo año.
La confianza se deslizó aún más cuando los observadores no vieron papel de seguridad para Gemini 2.5 Flash, un modelo más delgado y más rápido que Google reveló la semana pasada. Un portavoz de la compañía dijo que un papel flash "llegará pronto".
"Espero que esta sea una verdadera promesa de comenzar a dar actualizaciones más frecuentes", dijo Woodside. "Esas actualizaciones deben incluir resultados para los modelos que aún no han llegado al público, porque esos modelos también pueden plantear riesgos graves".
La nota de seguridad de Meta para sus nuevos modelos LLAMA 4 ejecuta solo unas pocas páginas, mientras que OpenAi decidió no publicar ningún informe para su serie GPT - 4.1.
La escasez de detalles llega en un tiempo tenso. Hace dos años, Google le dijo al gobierno de los Estados Unidos que publicaría documentos de seguridad para cada modelo de IA "significativo" dentro del alcance ". La compañía hizo promesas similares a los funcionarios de otros países, diciendo que ofrecería "transparencia pública" sobre sus productos de IA.
Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, calificó los lanzamientos de los principales laboratorios como una "carrera hacia el fondo" en seguridad.
"Combinado con informes de que los laboratorios rivales como OpenAI han reducido el tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el mejor modelo de Google cuenta una historia preocupante de una carrera hacia el fondo sobre la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado", agregó.
Google dice que gran parte de su trabajo de seguridad ocurre a puerta cerrada. La compañía afirma que cada modelo sufre pruebas estrictas, incluida el "equipo rojo adversario", antes de cualquier lanzamiento público.
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora