16/05/2024

Британский институт AI Safety Institute представил платформу для тестирования безопасности искусственного интеллекта — Inspect. Это программная библиотека, позволяющая как игрокам рынка, так и госорганизациям получать многофакторную оценку ИИ-моделей.

Inspect имеет открытую лицензию (что значит, ею может воспользоваться любой желающий) и включает три основных компонента:

  • наборы данных — предоставляют образцы для оценочных тестов;
  • инструменты для решения задач — собственно проводят тестирование;
  • инструменты для оценки результатов — суммируют баллы в метрики.

Уточняется, что платформу можно дополнить сторонними пакетами, написанными на Python. Это позволит адаптировать её для высококачественной оценки.

В AI Safety Institute рассказали, что при создании Inspect вдохновлялись ведущими разработчиками ИИ-решений с открытым исходным кодом, и в дальнейшем — уже в сотрудничестве с другими компаниями и офисом премьер-министра Великобритании — планируют работать над новыми open-source-инструментами безопасности ИИ. Такие инструменты легче интегрировать в существующие модели, пояснили представители института.