Етичність та відповідальність: як українські компанії відповідають на ШІ-виклики

29 Липня 15:24
РОЗБІР ВІД «Комерсант Український»

Штучний інтелект завойовує, чи точніше — відвойовує у людини — все нові й нові сфери життєдіяльності, викликаючи при цьому у користувачів не лише захоплення, але й часом побоювання та застереження. Як можна убезпечитись від ШІ-ризиків та відповідально впроваджувати штучний інтелект — з’ясовував «Комерсант Український».

Швейцарська компанія Proton тиждень тому запустила новий ШІ-асистент під назвою Lumo, особливістю якого став максимальний захист персональних даних користувачів.

Наскрізне шифрування, дешифрування лише на пристрої користувача, зникнення історії листування автоматично після закриття вікна — це все серед переваг нового ШІ-асистента.

«Lumo базується на моделях мов програмування з відкритим вихідним кодом і працює з європейських центрів обробки даних Proton. Це забезпечує набагато більшу прозорість роботи Lumo, ніж будь-який інший великий помічник у сфері штучного інтелекту. На відміну від Apple Intelligence та інших, Lumo не є партнером OpenAI чи інших американських, чи китайських компаній у сфері штучного інтелекту, і ваші запити ніколи не надсилаються третім сторонам», – так пояснюють переваги нового ШІ-асистента в компанії Proton.

Тобто новий продукт передбачає суворий підхід до конфіденційності й це є прямою відповіддю на один з актуальних нині ШІ-викликів — забезпечення прозорості та захисту даних користувача.

Українська відповідь на ШІ-виклики

Проникнення штучного інтелекту в усі сфери життя не лише відкриває нові можливості, але й супроводжується ризиками: упередженістю алгоритмів, порушенням приватності, непрозорістю автоматизованих рішень. І бізнес має реагувати на ці виклики відповідально та проактивно. Так в українській компанії MacPaw, яка займається створенням програмного забезпечення, пояснили свою участь створенні першої в Україні саморегулівної організації у сфері штучного інтелекту.

Загалом до цієї ініціативи долучилось 14 українських компаній: Grammarly, MacPaw, LetsData, DroneUA, WINSTARS.AI, Gametree.me, YouScan.io, EVE.calls, Valtech, ЛУН, Yieldy, SoftServe, Uklon, Preply. Окрім Меморандуму про створення саморегулівної організації, вони підписали Добровільний кодекс поведінки з етичного та відповідального використання ШІ.

Володимир Кубицький, Head of AI MacPaw, підписання Меморандуму та розробку Кодексу називає “стратегічним кроком до етичного розвитку штучного інтелекту”.

“До цього в державі не було об’єднання, яке б включало компанії, що зобов’язались працювати над етичним розвитком ШІ. Тепер таке об’єднання існує і може стати важливим партнером держави у формуванні політики в цій сфері. Також була потреба у колективному вирішенні проблем та обміні досвідом. Складні виклики легше вирішувати разом, у форматі професійного обговорення. Така взаємодія сприятиме розвитку галузі, формуванню сталих практик та культури відповідального використання ШІ”,— наголошує фахівець.

Компанії, які скріпили своїми підписами Кодекс поведінки з етичного та відповідального використання ШІ зобов’язалась не лише впроваджувати його норми, але й щонайменше раз на рік надавати звіти Секретаріату саморегулівної організації. Його функції виконують Асоціація IT Ukraine та Центр демократії та верховенства права. Коментує Марія Шевчук, Виконавча директорка Асоціації IT Ukraine.

“Ця ініціатива є прикладом того, як українська ІТ-спільнота готова брати на себе відповідальність за розвиток штучного інтелекту. Ми в Асоціації IT Ukraine раді долучитися до процесу як частина Секретаріату і підтримати формування етичних та зрозумілих правил у цій динамічній сфері. Віримо, що саморегулювання стане міцною основою для довіри, розвитку й міжнародного партнерства у сфері ШІ”, — зазначила Марія Шевчук.

Етичні орієнтири для розробників ШІ

У Кодексі поведінки з етичного та відповідального використання штучного інтелекту акцент зроблено не на жорстких вимогах, а на ціннісних орієнтирах і принципах, на які мають спиратись компанії, впроваджуючи ШІ.

Як пояснили в Асоціації IT Ukraine йдеться, зокрема про:

  • оцінку та управління ризиками, пов’язані з використанням ШІ;
  • забезпечення безпеки та стійкості до зовнішніх загроз;
  • захист персональних даних і приватності;
  • прозорість у наданні інформації щодо систем ШІ;
  • контроль та, за необхідності, втручання людини в процеси ШІ;
  • дотримання прав інтелектуальної власності;
  • поширення знань про етичне використання ШІ.

Також, як додають в компанії MacPaw, Кодекс, містить практичні приклади, які допомагають краще зрозуміти, як ці принципи можна реалізувати в конкретній діяльності.

На думку Володимира Кубицького, Head of AI MacPaw, один із найбільших ризиків, пов’язаних з впровадженням ШІ, є приватність.

“Люди дедалі більше довіряють ШІ свої особисті історії, думки, вподобання, і не завжди розуміють, які наслідки це може мати. Проблема не лише у злих намірах, а більше в тому, що все, що потрапляє в систему, теоретично може десь зберігатись, передаватись, бути витягнутим. Ще складніше, коли система накопичує глибоке розуміння про людину: її психологічний профіль, реакції, слабкі місця. На цьому тлі з’являється потенційна можливість для маніпуляції, навіть непомітної. Як із цим працювати: головне, щоб користувач мав повний та реальний контроль. Потрібно розуміти, що система про вас знає і мати можливість це видалити або обмежити”,— зазначає Володимир Кубицький.

У компанії MacPaw зараз якраз активно працюють над своїм ШІ-асистентом Eney для macOS. Eney виконує рутинну взаємодію з системою і робить її простішою, більш ефективною та швидкою. Володимир Кубицький на прикладі цієї розробки пояснив, як досягається приватність.

“Компанія багато уваги приділяє тому, як забезпечити приватність користувачів та їхній контроль над персональними даними. Наприклад, ми думаємо, як реалізувати в Eney підхід на кшталт “right to be forgotten”, щоб користувач міг повністю видалити інформацію, яку система зберегла про нього. Це ще в процесі, але сам підхід для нас є базовим і етичним за замовчуванням. Ми не хочемо, щоб система знала більше, ніж їй справді потрібно, і точно не хочемо, щоб вона зберігала щось “про всяк випадок”. Для нас це питання не тільки технічне, а й світоглядне. Саме з таким підходом ми хочемо розвивати свої ШІ-інструменти й надалі”, — наголошує фахівець.

ШІ-адаптація до євростандартів

Створення першої в Україні саморегулівної організації у сфері штучного інтелекту — це не лише реакція на національні виклики, а й важливе позиціювання України як відповідального учасника глобального середовища ШІ. На цьому також наголошують в Асоціації IT Ukraine.

“Країни G7, Європейський Союз, Великобританія, Канада, Японія, а також провідні світові компанії Google, Meta, Amazon і Microsoft вже розробляють та впроваджують етичні кодекси, стандарти, незалежні аудити й політики само звітування. У цьому контексті ініціатива українських компаній зі створення першої в Україні організації з етичного та відповідального використання ШІ є своєчасним і стратегічно важливим кроком”,— зазначає Марія Шевчук, Виконавча директорка Асоціації IT Ukraine.

Володимир Кубицький, Head of AI MacPaw також вважає, що подібна ініціатива — це спосіб підготуватись до європейського регулювання у сфері ШІ.

“Бізнесу важливо вже зараз скеровувати свою діяльність відповідно до майбутніх правил, формуючи внутрішні політики, які будуть сумісні з майбутніми законодавчими вимогами”, — наголосив Володимир Кубицький.

У цьому тим більше є сенс, що вимоги ЄС у сфері регулювання ШІ визнаються досить жорсткими. Принаймні, у компанії Meta заявили днями, що не долучатимуться до добровільного Кодексу практик для штучного інтелекту, який розробила Єврокомісія напередодні набуття чинності регламенту AI Act. Як повідомило видання TechCrunch з посиланням публікацію у LinkedIn віцепрезидента Meta з глобальних справ Джоела Каплана, таке рішення компанії пояснюється тим, що європейський підхід до регулювання ШІ є надмірно жорстким і суперечить інтересам розробників.

Європейський AI Act набуде чинності 2 серпня 2025 року. Закон про штучний інтелект, заснований на оцінці ризиків, прямо забороняє деякі найбільш небезпечні практики, такі як когнітивно-поведінкові маніпуляції або соціальне оцінювання. Правила також визначають «високоризикові» сфери застосувань ШІ, такі як біометрія та розпізнавання облич, а також використання ШІ в освітній сфері та працевлаштуванні. Закон вимагає від розробників реєструвати системи штучного інтелекту та виконувати зобов’язання щодо управління ризиками та якістю.

Автор: Сергій Василевич

Марина Максенко
Редактор

Читають зараз