Le 7 février, le National Institute of Standards and Technology a créé l’AI Safety Institute, chargé de définir des lignes directrices et des normes pour la mesure et la politique en matière d’intelligence artificielle.
Une omission intéressante sur la liste des membres de l’Institut américain de sécurité de l’IA est le Future of Life Institute, une organisation mondiale à but non lucratif qui compte parmi ses investisseurs Elon Musk et qui a été créée pour empêcher l’IA de contribuer à des « risques extrêmes à grande échelle » tels qu’une guerre mondiale.
L’Institut américain de sécurité de l’IA a été créé dans le cadre des efforts mis en place par le décret du président Joe Biden sur la prolifération et la sécurité de l’IA en octobre 2023.
Aux États-Unis, la sécurité et la réglementation de l’IA au niveau gouvernemental sont gérées par le NIST et, désormais, par l’Institut américain de sécurité de l’IA, qui dépend du NIST. Les principales entreprises d’IA aux États-Unis ont collaboré avec le gouvernement pour encourager la sécurité et les compétences en matière d’IA afin d’aider l’industrie de l’IA à développer l’économie.