Choses à Savoir TECH - Un bouton d’arrêt d’urgence dans les puces IA ?

Moins de 30 minutes : les meilleurs podcasts courts - Ein Podcast von Acast France - Donnerstags

Kategorien:

À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d’intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie.« Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l’arrêt ne repose plus seulement sur le code ou l’orchestration des serveurs. L’idée n’est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d’interrompre toute action anormale. C’est une étape dans la stratégie d’OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n’est pas anodin : avec des agents désormais persistants, interconnectés et capables d’agir hors du regard des utilisateurs, le risque de dérives discrètes grandit.Concrètement, OpenAI mise sur une combinaison d’« interrupteurs » matériels, de télémétrie fine et d’isolement via des enclaves sécurisées. À cela s’ajoutent attestation cryptographique, firmware minimaliste et chemins d’exécution supervisés. L’objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l’expérience l’a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D’où l’intérêt d’un kill switch matériel, hors de portée du modèle, et activable depuis l’extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu’aux limites intégrées d’usage. Le Royaume-Uni va même jusqu’à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d’exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l’élan des prochains modèles d’IA généralistes.  Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site