Авторизуйтесь Чтобы скачать свежий номер №62(2756) от 20.08.2024 Смотреть архивы


USD:
3.1674
EUR:
3.5084
RUB:
3.5371
BTC:
59,315.00 $
Золото:
254.03
Серебро:
2.94
Платина:
96.54
Назад
ИТ-сектор
сегодня в 00:00 3 мин на чтение мин
Распечатать с изображениями Распечатать без изображений

Риски использования искусственного интеллекта: самый полный классификатор

Фото: freepik.com

Американские ученые создали общедоступный репозиторий рисков ИИ. Это первая попытка тщательного сбора, анализа и классификации рисков. База данных может использоваться для различных целей: введение новых специалистов по работе с рисками, связанными с ИИ, создание фундамента для сложных проектов. Она также поможет выявить недооцененные области изучения ИИ.

Исследователи Массачусетского технологического института (MIT) в августе 2024 года завершили разработку «Репозитория рисков ИИ».

Документ представляет собой систематизированный обзор существующих рисков ИИ, условий и причин их возникновения, и является важным инструментом для исследователей, политиков, аудиторских компаний и разработчиков, стремящихся лучше понять и управлять разнообразными угрозами, которые могут исходить от ИИ-систем.

База данных будет регулярно обновляться по мере появления новых угроз.

Сейчас она содержит более 700 рисков, которые разделены на 7 типов:

  • дискриминация и токсичность;
  • конфиденциальность и безопасность;
  • дезинформация;
  • злоумышленники и злоупотребления;
  • взаимодействие человека и компьютера;
  • социально-экономический и экологический ущерб;
  • безопасность, недостатки и ограничения систем ИИ.

Исследователи отмечают, что большинство рисков, связанных с ИИ (51%), возникают в результате работы самих систем, а не действий человека (34%). При этом 65% рисков появляются после того, как ИИ-модель уже обучена и развернута, и лишь 10% – до этого.

Разработчики классификатора обнаружили, что профессиональное сообщество наиболее часто в аналогичных документах обсуждает риски, связанные с безопасностью, отказами и ограничениями ИИ-систем (76%), социально-экономическим и экологическим ущербом (73%), а также дискриминацией и токсичностью (71%). Меньше внимания уделяется взаимодействию человека с компьютером (41%) и дезинформации (44%).

Репозиторий рисков ИИ, о котором мы говорим, включает 23 подкатегории. Причем исследователи отмечают, что ранее при попытках классификации упоминались всего 16 из них в рамках одного документа. Наиболее часто обсуждаются такие подкатегории, как несправедливая дискриминация (8%), стремление ИИ к целям, противоречащим человеческим, и неустойчивость (9%). В то же время, некоторые подкатегории, например, права и благополучие ИИ (<1%) и загрязнение информационной среды (1%), остаются относительно малоизученными.

Политики могут использовать базу данных для разработки нормативных актов и общих стандартов, аудиторы – для создания стандартов и проведения аудитов ИИ-систем, а исследователи – для выявления пробелов в изучении и разработки научных и образовательных программ. Представители индустрии могут применять базу данных для внутренней оценки и подготовки к рискам, разработки стратегии, а также для обучения и подготовки кадров.

Читайте нас в Telegram и Viber

Распечатать с изображениями Распечатать без изображений