Планування реагування на інциденти з використанням штучного інтелекту

Зі стрімким розвитком штучного інтелекту існує значна ймовірність збоїв. Не буває технологічного розвитку без збоїв, просто результат збою не повинен бути катастрофічним. Невдачі штучного інтелекту можуть бути пов’язані з безпекою, порушенням конфіденційності або відсутністю прозорості та підзвітності. Компанії повинні бути готові реагувати на масові збої, що може вимагати юридичної допомоги.

Бази даних про інциденти зі штучним інтелектом дають уявлення про різні інциденти, що сталися, і про важливість оновлення даних. Збої в роботі штучного інтелекту можуть призвести до величезних фінансових втрат, а також зашкодити репутації компанії. Тут на допомогу приходять плани реагування на інциденти штучного інтелекту. Плани реагування на інциденти необхідні, оскільки штучний інтелект відрізняється від іншого традиційного програмного забезпечення.

Вхідні дані, на яких працює штучний інтелект, є історичними даними, тому їх потрібно постійно оновлювати з часом. Складність штучного інтелекту, особливо систем, які включають генеративний штучний інтелект або глибоке навчання, має багато взаємопов’язаних вузлів, що ускладнює визначення місця, де сталася помилка. Незначні неточності в системі можуть призвести до масштабних збоїв, що впливають на людство.

Плани реагування на інциденти, пов’язані зі штучним інтелектом, повинні передбачати розширені заходи кібербезпеки, які виходять за рамки традиційних заходів кібербезпеки, що вживаються в першу чергу для конкретних загроз, таких як витік даних.

Ось кілька кроків, які можна виконати для реагування на інциденти, пов’язані зі штучним інтелектом:

Підготовка

  • Для реагування на конкретний інцидент необхідно дотримуватися певних політик і процедур. Реакція повинна визначати термін і загрозу, яку вона спричинила, а також ролі та обов’язки, взяті на себе у зв’язку з нею.
  • Включити подію та помилку, яка призвела до виникнення цієї загрози, а також результат зовнішньої атаки.
  • Сформулюйте політики та процедури, що передбачають збій на всіх етапах життєвого циклу моделі або системи.
  • Ініціюйте навчання в організації щодо роботи та виконання політик, щоб поінформувати людей про інцидент.

Ідентифікація

  • Дотримуйтесь галузевих стандартів для виявлення інциденту.
  • Відстежуйте платформи штучного інтелекту, щоб з’ясувати шкоду, яку може завдати штучний інтелект.
  • Шукайте відгуки від споживачів або організацій, які його експлуатують.

Локалізація

  • Вживайте заходів для усунення негайної шкоди, а потім призупиніть операції та шукайте резервну копію для вирішення ситуації.
  • Дотримуйтесь процедурних інструкцій для оцінки інциденту, інакше це може призвести до серйозних збитків.
  • Намагайтеся усунути технічні неполадки, визначені інженерами, щоб звести до мінімуму шкоду, завдану інцидентом.

Усунення

  • Видаліть систему, яка спричинила інцидент, і не виконуйте жодних оновлень у системі, доки вона не буде переглянута і не буде надано підтвердження того, що в майбутньому інцидентів з цією системою більше не виникне.
  • Проведіть задокументоване тестування переглянутої або заміненої системи, особливо тих систем, які призвели до інциденту.

Відновлення

  • Перед розгортанням переглянуту систему слід зміцнити.
  • Проведіть порівняльне тестування заміненої системи та її результатів перед виконанням будь-яких подальших розробок або модернізацій.

Один з найкращих способів пом’якшити збитки, спричинені штучним інтелектом, – залучити до роботи в організації міждисциплінарні команди. Менеджери з управління ризиками можуть зіграти важливу роль у координації роботи між технологами та юристами, що допоможе нам зменшити такі збитки.