Meta dice que puede detener el progreso de sistemas de IA que considera demasiado arriesgado


El CEO de Meta, Mark Zuckerberg, se ha comprometido a hacer que la inteligencia militar químico (AGI), que se define aproximadamente como AI que puede conquistar cualquier tarea que un humano pueda, un día acondicionado abiertamente. Pero en un nuevo documento de política, Meta sugiere que hay ciertos escenarios en los que puede no divulgar un sistema de IA en extremo capaz que desarrolló internamente.

El documento, que Meta está llamando a su ámbito Frontier AI, identifica dos tipos de sistemas de IA que la compañía considera demasiado riesgoso para liberar: sistemas de “suspensión aventura” y “aventura crítico”.

Como los meta define, tanto los sistemas de “suspensión aventura” como de “aventura crítico” son capaces de ayudar en la seguridad cibernética, los ataques químicos y biológicos, la diferencia es que los sistemas de “aventura crítico” podrían dar empleo a un “resultado catastrófico [that] no se puede mitigar en [a] Contexto de despliegue propuesto. “Los sistemas de suspensión aventura, por el contrario, pueden hacer que un ataque sea más acomodaticio de arrostrar a punta, pero no tan confiable o confiable como un sistema de aventura crítico.

¿De qué tipo de ataques estamos hablando aquí? Meta ofrece algunos ejemplos, como el “compromiso automatizado de extremo a extremo de un entorno a escalera corporativa mejor protegido de destreza” y la “proliferación de armas biológicas de suspensión impacto”. La registro de posibles catástrofes en el documento de Meta está allí de ser exhaustiva, reconoce la compañía, pero incluye aquellos que Meta cree que son “el más urgente” y plausible para surgir como resultado directo de liberar un poderoso sistema de IA.

Poco sorprendente es que, según el documento, Meta clasifica el aventura del sistema no basado en una prueba empírica sino que se informa por el aporte de investigadores internos y externos que están sujetos a la revisión de los “tomadores de decisiones de nivel superior”. ¿Por qué? Meta dice que no cree que la ciencia de la evaluación sea “suficientemente robusta como para proporcionar métricas cuantitativas definitivas” para osar el aventura de un sistema.

Si Meta determina que un sistema es de suspensión aventura, la compañía dice que limitará el camino al sistema internamente y no lo liberará hasta que implementa mitigaciones para “dominar el aventura a niveles moderados”. Si, por otro costado, se considera un sistema crítico, Meta dice que implementará protecciones de seguridad no especificadas para evitar que el sistema sea exfiltrado y detenga el progreso hasta que el sistema pueda ser menos peligroso.

El ámbito de la IA fronteriza de Meta, que la compañía, según la compañía, evolucionará con el panorama de IA cambiante, y que Meta anteriormente se comprometió a divulgar ayer de la Cumbre de Actividad de la AI de Francia este mes, parece ser una respuesta a las críticas al enfoque “rajado” de la compañía al sistema progreso. Meta ha acogido una táctica de hacer que su tecnología AI esté abiertamente acondicionado, aunque no sea de código rajado por la definición comúnmente entendida, en contraste con compañías como OpenAI que optan por comparar sus sistemas detrás de una API.



Source link

Leave a Comment