Американський інститут з безпеки штучного інтелекту розпочне тестування мовних моделей, розроблених компаніями OpenAI та Anthropic.
Разом із британськими експертами спеціалісти запроваджуватимуть уніфіковане тестування систем штучного інтелекту.
Американський уряд повідомив про укладення угод із провідними компаніями в галузі штучного інтелекту, OpenAI та Anthropic, щодо залучення новоствореного Інституту безпеки ШІ для тестування їхніх моделей. Таку інформацію надав Bloomberg.
На підставі цих домовленостей, Американський інститут безпеки штучного інтелекту матиме пріоритетний доступ до новітніх моделей ШІ від компаній для аналізу їхніх можливостей та ризиків, а також для спільної роботи над стратегіями зниження потенційних загроз.
Інститут штучного інтелекту та безпеки входить до складу Національного інституту стандартів і технологій, що підпорядковується Міністерству торгівлі Сполучених Штатів Америки.
"Безпека має важливе значення для стимулювання проривних технологічних інновацій. Ці угоди -- лише початок, але вони є важливою віхою, оскільки ми працюємо над тим, щоб допомогти відповідально керувати майбутнім ШІ". -- заявила директорка Інституту безпеки ШІ Елізабет Келлі.
Очікується тісна співпраця з британським Інститутом безпеки штучного інтелекту для покращення безпечності ШІ. Організації раніше заявили, що працюватимуть разом над впровадженням стандартизованого тестування.
"Ми твердо підтримуємо місію Інституту безпеки штучного інтелекту США та сподіваємося на співпрацю для поширення найкращих практик і стандартів безпеки для моделей штучного інтелекту," — сказав у своїй заяві головний стратегічний директор OpenAI Джейсон Квон.
"Ми переконані, що інститут має ключове значення у встановленні лідерства США в сфері відповідального розвитку штучного інтелекту. Ми також сподіваємося, що наша спільна діяльність створить основу, на яку зможе орієнтуватися світ", -- зазначив він.
Anthropic також підкреслила, що важливо забезпечити можливість ефективного тестування моделей штучного інтелекту. "Безпека і надійність штучного інтелекту є ключовими для позитивного впливу цієї технології", — зазначив Джек Кларк, співзасновник Anthropic. "Це посилює нашу здатність виявляти та зменшувати ризики, сприяючи відповідальній розробці ШІ. Ми горді бути частиною цієї критично важливої місії, встановлюючи нові стандарти для безпечного та надійного штучного інтелекту".
Інститут безпеки штучного інтелекту США був створений у 2023 році на виконання наказу адміністрації Байдена про штучний інтелект. Його завданням є розробка тестування, оцінювання та вказівок щодо відповідальних інновацій ШІ.