Група правозахисників з Центру електронної конфіденційності (Electronic Privacy Information Center; EPIC) склала зведення правил, покликаний захистити людство від загрози безконтрольного штучного інтелекту.
Цікаво, що обійтися трьома законами робототехніки, як у Айзека Азімова, у експертів не вийшло. Список з дванадцяти правил був оприлюднений на зустрічі коаліції Public Voice, створеної в 1996 році для сприяння участі суспільства в ухваленні рішень про майбутнє інтернету.
У передмові автори відзначають, що в міру поширення штучного інтелекту плоди його діяльності роблять все більший вплив на життя людини - від видачі кредиту до одержання роботи або судового вироку. Тому в даній сфері дуже важливо окреслити керівні принципи, які повинні забезпечити захист прав людини, не допустити дискримінаційних та неетичних рішень з боку автономних систем і мінімізувати ризик виходу ШІ з-під контролю.
«Потрібно переконатися в тому, що компанії приділяють достатньо уваги розробці, впровадженню та підтримці етичних норм, якими керуються системи ШІ», - заявили в EPIC.
Отже, «12 принципів етичного використання ШІ»:
- Право на справедливість. Розробники ШІ зобов'язані упевнитися в тому, що машина не має упереджень і не дискримінує людей за будь-якою ознакою.
- Право на прозорість. Люди мають право знати фактори, логіку і технології, які використовує машина для прийняття рішення.
- Попередня оцінка і відповідальність. Автономна система може бути розгорнута тільки після попереднього тестування, опису її переваг, цілей і виконуваних завдань; також необхідно заздалегідь позначити ризики. Розробники несуть повну відповідальність за ті рішення, що приймаються ШІ.
- Обов'язкова перевірка систем ШІ, взаємодіючих з фізичними об'єктами, громадськими інститутами. Перед тим, як такий штучний інтелект буде розгорнуто, незалежна публічна сторона повинна оцінити ризики і перевірити механізми контролю та безпеки.
- Рішення, що приймаються машиною, повинні бути точними, надійними і обгрунтованими.
- Розробники зобов'язані наділити автономні системи надійним захистом від несанкціонованого доступу.
- ШІ не має права профілювати користувачів без їх згоди.
- Державні відомства не мають права за допомогою ШІ привласнювати громадянам рейтингові бали (як це зараз відбувається в Китаї).
- Право на людське рішення - тільки люди, а не алгоритми, можуть виносити фінальне рішення.
- Вимога ідентифікації - організація, відповідальна за ШІ, повинна бути відома суспільству.
- Вимоги якості даних - компанії повинні вказувати джерело даних, на основі яких був навчений ШІ, забезпечувати їх якість і релевантність.
- Реалізація функції припинення роботи - компанія, яка розробила ШІ, повинна припинити діяльність системи, якщо людський контроль над нею більше неможливий.
|