Computers and softwares

Le gouvernement britannique définit cinq objectifs pour le sommet sur la sécurité de l’IA

Le gouvernement britannique a exposé ses cinq ambitions pour le prochain sommet sur la sécurité de l’IA, qui doit se tenir à Bletchley Park début novembre.

Annoncé pour la première fois par le Premier ministre Rishi Sunak en juin lors d’une visite à Washington pour rencontrer le président américain Joe Biden, le sommet vise à rassembler des responsables gouvernementaux, des entreprises d’IA et des chercheurs à Bletchley Park pour examiner les risques et le développement des technologies d’IA et discuter. comment ils peuvent être atténués grâce à une action coordonnée au niveau international.

En mars, le gouvernement britannique a publié un livre blanc décrivant sa stratégie en matière d’IA, déclarant qu’il cherchait à éviter ce qu’il appelle une « législation autoritaire » et qu’il appellerait plutôt les organismes de réglementation existants à utiliser les réglementations actuelles pour garantir que les applications d’IA respectent les réglementations en vigueur. lignes directrices, plutôt que de rédiger de nouvelles lois.

Les régulateurs devraient commencer à publier des conseils pratiques aux organisations dans les mois à venir, en distribuant des modèles d’évaluation des risques et en expliquant comment mettre en œuvre les principes gouvernementaux de sûreté, de sécurité et de robustesse ; transparence et explicabilité ; justice; responsabilité et gouvernance; et la contestabilité et la réparation.

“Le Royaume-Uni est impatient de travailler en étroite collaboration avec des partenaires mondiaux sur ces questions pour rendre l’IA plus sûre et garantir que les nations et les citoyens du monde entier puissent en tirer profit, aujourd’hui et à l’avenir”, a déclaré le ministère de la Science, de l’Innovation et de la Technologie dans un communiqué. » déclaration, ajoutant que les cinq objectifs définis par le ministère s’appuient sur « la consultation initiale des parties prenantes et la collecte de preuves et encadreront la discussion lors du sommet ».

Le terme « IA frontière » est défini dans un article universitaire de juillet 2023 par Anderljung et al comme « des modèles de base hautement performants qui pourraient présenter des capacités dangereuses ». Les modèles de base sont une sorte d’IA générative, et les dangers que la prochaine génération de tels modèles pourrait poser incluent « des dommages physiques importants ou la perturbation de fonctions sociétales clés à l’échelle mondiale, résultant d’une mauvaise utilisation intentionnelle ou d’un accident », préviennent les auteurs de l’article. .

Les cinq objectifs du sommet du gouvernement britannique sont les suivants :

  • Développer une compréhension commune des risques posés par l’IA de pointe et de la nécessité d’agir
  • Proposer un processus de collaboration internationale sur la sécurité de l’IA aux frontières, y compris la meilleure façon de soutenir les cadres nationaux et internationaux
  • Proposer des mesures appropriées que les organisations individuelles devraient prendre pour accroître la sécurité de l’IA aux frontières
  • Identifier les domaines de collaboration potentielle sur la recherche sur la sécurité de l’IA, y compris l’évaluation des capacités des modèles et le développement de nouvelles normes pour soutenir la gouvernance
  • Montrer comment garantir le développement sûr de l’IA permettra à l’IA d’être utilisée pour le bien à l’échelle mondiale.

La liste complète des invités n’a pas encore été annoncée.

Copyright © 2023 IDG Communications, Inc.


Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button