ИИ-вендоры договорились ограничивать технологию, когда это необходимо
22/05/2024
На прошедшем в Южной Корее AI Safety Summit 16 лидеров рынка ИИ-разработок (Google, Microsoft, OpenAI, IBM и другие) приняли новые обязательства по безопасности передовых технологий искусственного интеллекта. Среди прочего, документ предполагает обязательства подписантов деактивировать собственные ИИ-решения в случае потенциального опасного воздействия последних.
Компании договорились публиковать свои методики оценки рисков, связанных с их ИИ-моделями, описывать допустимые уровни потенциальной опасности и принимаемые меры при превышении этих уровней. В ситуации, когда снижение рисков ниже установленного порога невозможно, участники договора должны будут прекратить разработку и внедрение соответствующих моделей и систем.
Также подписанты обязались:
делиться друг с другом информацией;
проводить тестирование своих передовых ИИ-моделей;
инвестировать в ИБ и предотвращать внутренние угрозы для не выпущенных технологий;
маркировать созданный с помощью нейросетей контент;
приоритизировать исследования социальных рисков, связанных с ИИ.
Остальные детали соглашения обсудят на ИИ-саммите в начале 2025 года.
В рамках того же AI Safety Summit вендорами, чиновниками стран G7, Сингапура и Австралии, а также представителями международных организаций — ООН и ОЭСР — была принята Сеульская декларация. В ней говорится о важности обеспечения совместимости между системами управления искусственным интеллектом, основываясь на риск-ориентированном подходе — для максимизации преимуществ технологии и нивелирования рисков, сопряжённых с ней.