tradingkey.logo

Promesas de seguridad de IA de Google bajo escrutinio después del informe de Géminis

Cryptopolitan17 de abr de 2025 22:43

Google compartió un documento de seguridad sobre su modelo insignia de inteligencia artificial, Gemini 2.5 Pro. Los expertos dicen que deja los riesgos clave inexplicables.

La compañía publicó el documento el jueves, varias semanas después de que lanzó Gemini 2.5 Pro a los clientes. El documento enumera las pruebas internas que Google realizó en el modelo, pero ofrece pocos hechos sobre cómo el sistema se comporta bajo sobrecarga o mal uso. Los investigadores que revisaron el periódico le dijeron a TechCrunch que los detalles faltantes hacen que sea difícil juzgar si Gemini 2.5 Pro es realmente seguro para un uso amplio.

Los informes técnicos son una de las principales formas en que el público aprende lo que los sistemas de IA avanzados pueden y no pueden hacer. Un informe exhaustivo a menudo muestra dónde falla un modelo y dónde podría ser mal utilizado. Muchos investigadores de IA tratan estos documentos como esfuerzos honestos para respaldar los reclamos de seguridad de una empresa.

Google maneja los informes de seguridad de manera diferente.

Google lanza un informe solo después de que un modelo ya no se etiqueta como "experimental", y mueve ciertos hallazgos de "capacidad peligrosa" a una auditoría separada que no se publica a la vez. Como resultado, el documento público no cubre todas las amenazas por la que Google ha probado.

Varios analistas dijeron que el nuevo documento Gemini 2.5 Pro es un caso marcado de divulgación limitada. También se dieron cuenta de que el informe nunca se refiere al Marco de Seguridad Fronteriza de Google, o FSF, una política que la compañía anunció el año pasado para detectar futuros poderes de IA que podrían causar un "daño severo".

"Este informe es muy escaso, contiene información mínima y llegó semanas después de que el modelo se hizo público", dijo Peter Wildeford, coprotagonista del Instituto de Política y Estrategia de AI. "Es imposible confirmar si Google está cumpliendo sus propias promesas y, por lo tanto, imposible juzgar la seguridad de sus modelos".

Thomas Woodside, coprotagonista del proyecto Secure AI, dijo que estaba contento de que cualquier artículo hubiera aparecido en absoluto, pero dudó del plan de Google de lanzar seguimientos constantes. Señaló que la última vez que la empresa compartió los resultados de las pruebas de capacidad peligrosa fue en junio de 2024, y ese documento cubrió un modelo anunciado en febrero del mismo año.

La confianza se deslizó aún más cuando los observadores no vieron papel de seguridad para Gemini 2.5 Flash, un modelo más delgado y más rápido que Google reveló la semana pasada. Un portavoz de la compañía dijo que un papel flash "llegará pronto".

"Espero que esta sea una verdadera promesa de comenzar a dar actualizaciones más frecuentes", dijo Woodside. "Esas actualizaciones deben incluir resultados para los modelos que aún no han llegado al público, porque esos modelos también pueden plantear riesgos graves".

Google Now se queda corto en transparencia

La nota de seguridad de Meta para sus nuevos modelos LLAMA 4 ejecuta solo unas pocas páginas, mientras que OpenAi decidió no publicar ningún informe para su serie GPT - 4.1.

La escasez de detalles llega en un tiempo tenso. Hace dos años, Google le dijo al gobierno de los Estados Unidos que publicaría documentos de seguridad para cada modelo de IA "significativo" dentro del alcance ". La compañía hizo promesas similares a los funcionarios de otros países, diciendo que ofrecería "transparencia pública" sobre sus productos de IA.

Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, calificó los lanzamientos de los principales laboratorios como una "carrera hacia el fondo" en seguridad.

"Combinado con informes de que los laboratorios rivales como OpenAI han reducido el tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el mejor modelo de Google cuenta una historia preocupante de una carrera hacia el fondo sobre la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado", agregó.

Google dice que gran parte de su trabajo de seguridad ocurre a puerta cerrada. La compañía afirma que cada modelo sufre pruebas estrictas, incluida el "equipo rojo adversario", antes de cualquier lanzamiento público.

 

Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora

Descargo de responsabilidad: La información proporcionada en este sitio web es solo para fines educativos e informativos, y no debe considerarse asesoramiento financiero o de inversión.
tradingkey.logo
tradingkey.logo
Datos intradía proporcionados por Refinitiv y sujetos a condiciones de uso. Datos históricos y actuales al final del día proporcionados por Refinitiv. Todas las cotizaciones son en hora local. Los datos de última venta en tiempo real para las cotizaciones de valores de EE.UU. reflejan las operaciones comunicadas a través del Nasdaq únicamente. Los datos intradía se retrasan al menos 15 minutos o según los requisitos de la bolsa.
* Las referencias, los análisis y las estrategias comerciales son proporcionados por el proveedor externo, Trading Central, y el punto de vista se basa en la evaluación y el juicio independientes del analista, sin considerar los objetivos de inversión ni la situación financiera de los inversores.
Advertencia de Riesgo: Nuestro sitio web y aplicación móvil solo proporcionan información general sobre ciertos productos de inversión. Finsights no proporciona, y la provisión de dicha información no debe interpretarse como que Finsights proporciona, asesoramiento financiero o recomendación para cualquier producto de inversión.
Los productos de inversión están sujetos a riesgos de inversión significativos, incluida la posible pérdida del monto principal invertido y pueden no ser adecuados para todos. El rendimiento pasado de los productos de inversión no es indicativo de su rendimiento futuro.
Finsights puede permitir que anunciantes o afiliados de terceros coloquen o entreguen anuncios en nuestro sitio web o aplicación móvil o en cualquier parte de los mismos y puede ser compensado por ellos en función de su interacción con los anuncios.
© Derechos de autor: FINSIGHTS MEDIA PTE. LTD. Todos los derechos reservados.