Этичность и ответственность: как украинские компании отвечают на ИИ-вызовы
29 июля 15:24
Искусственный интеллект завоевывает, или точнее — отвоевывает у человека — все новые и новые сферы жизнедеятельности, вызывая при этом у пользователей не только восхищение, но и порой опасения и предостережения. Как можно обезопасить себя от ИИ-рисков и ответственно внедрять искусственный интеллект — выяснял «Коммерсант Украинский».
Швейцарская компания Proton неделю назад запустила новый ИИ-ассистент под названием Lumo, особенностью которого стала максимальная защита персональных данных пользователей.
Сквозное шифрование, дешифровка только на устройстве пользователя, исчезновение истории переписки автоматически после закрытия окна — это все среди преимуществ нового ИИ-ассистента.
«Lumo базируется на моделях языков программирования с открытым исходным кодом и работает из европейских центров обработки данных Proton. Это обеспечивает гораздо большую прозрачность работы Lumo, чем любой другой крупный помощник в сфере искусственного интеллекта. В отличие от Apple Intelligence и других, Lumo не является партнером OpenAI или других американских или китайских компаний в сфере искусственного интеллекта, и ваши запросы никогда не направляются третьим сторонам», — так объясняют преимущества нового ИИ-ассистента в компании Proton.
То есть новый продукт предусматривает строгий подход к конфиденциальности и это является прямым ответом на один из актуальных сейчас ИИ-вызовов — обеспечение прозрачности и защиты данных пользователя.
Украинский ответ на ИИ-вызовы
Проникновение искусственного интеллекта во все сферы жизни не только открывает новые возможности, но и сопровождается рисками: предвзятостью алгоритмов, нарушением приватности, непрозрачностью автоматизированных решений. И бизнес должен реагировать на эти вызовы ответственно и проактивно. Так в украинской компании MacPaw, которая занимается созданием программного обеспечения, объяснили свое участие в создании первой в Украине саморегулируемой организации в сфере искусственного интеллекта.
Всего к этой инициативе присоединилось 14 украинских компаний: Grammarly, MacPaw, LetsData, DroneUA, WINSTARS.AI, Gametree.me, YouScan.io, EVE.calls, Valtech, ЛУН, Yieldy, SoftServe, Uklon, Preply. Кроме Меморандума о создании саморегулируемой организации, они подписали Добровольный кодекс поведения по этическому и ответственному использованию ИИ.
Владимир Кубицкий, Head of AI MacPaw, подписание Меморандума и разработку Кодекса называет «стратегическим шагом к этическому развитию искусственного интеллекта».
«До этого в государстве не было объединения, которое бы включало компании, которые обязались работать над этическим развитием ИИ. Теперь такое объединение существует и может стать важным партнером государства в формировании политики в этой сфере. Также была потребность в коллективном решении проблем и обмене опытом. Сложные вызовы легче решать вместе, в формате профессионального обсуждения. Такое взаимодействие будет способствовать развитию отрасли, формированию устойчивых практик и культуры ответственного использования ИИ», — отмечает специалист.
Компании, которые скрепили своими подписями Кодекс поведения по этическому и ответственному использованию ИИ обязалась не только внедрять его нормы, но и минимум раз в год предоставлять отчеты Секретариату саморегулируемой организации. Его функции выполняют Ассоциация IT Ukraine и Центр демократии и верховенства права. Комментирует Мария Шевчук, Исполнительный директор Ассоциации IT Ukraine.
«Эта инициатива является примером того, как украинское ІТ-сообщество готово брать на себя ответственность за развитие искусственного интеллекта. Мы в Ассоциации IT Ukraine рады присоединиться к процессу как часть Секретариата и поддержать формирование этических и понятных правил в этой динамичной сфере. Верим, что саморегулирование станет прочной основой для доверия, развития и международного партнерства в сфере ИИ», — отметила Мария Шевчук.
Этические ориентиры для разработчиков ИИ
В Кодексе поведения по этическому и ответственному использованию искусственного интеллекта акцент сделан не на жестких требованиях, а на ценностных ориентирах и принципах, на которые должны опираться компании, внедряя ИИ.
Как пояснили в Ассоциации IT Ukraine речь идет, в частности, о:
- оценке и управлении рисками, связанными с использованием ИИ;
- обеспечение безопасности и устойчивости к внешним угрозам;
- защите персональных данных и приватности;
- прозрачность в предоставлении информации о системах ИИ;
- контроль и, при необходимости, вмешательство человека в процессы ИИ;
- соблюдение прав интеллектуальной собственности;
- распространение знаний об этическом использовании ИИ.
Также, как добавляют в компании MacPaw, Кодекс содержит практические примеры, которые помогают лучше понять, как эти принципы можно реализовать в конкретной деятельности.
По мнению Владимира Кубицкого, Head of AI MacPaw, один из самых больших рисков, связанных с внедрением ИИ, является приватность.
«Люди все больше доверяют ИИ свои личные истории, мысли, предпочтения, и не всегда понимают, какие последствия это может иметь. Проблема не только в злых намерениях, а больше в том, что все, что попадает в систему, теоретически может где-то храниться, передаваться, быть извлеченным. Еще сложнее, когда система накапливает глубокое понимание о человеке: его психологический профиль, реакции, слабые места. На этом фоне появляется потенциальная возможность для манипуляции, даже незаметной. Как с этим работать: главное, чтобы пользователь имел полный и реальный контроль. Нужно понимать, что система о вас знает и иметь возможность это удалить или ограничить»,- отмечает Владимир Кубицкий.
В компании MacPaw сейчас как раз активно работают над своим ИИ-ассистентом Eney для macOS. Eney выполняет рутинное взаимодействие с системой и делает его более простым, эффективным и быстрым. Владимир Кубицкий на примере этой разработки объяснил, как достигается приватность.
«Компания много внимания уделяет тому, как обеспечить приватность пользователей и их контроль над персональными данными. Например, мы думаем, как реализовать в Eney подход вроде «right to be forgotten», чтобы пользователь мог полностью удалить информацию, которую система сохранила о нем. Это еще в процессе, но сам подход для нас является базовым и этичным по умолчанию. Мы не хотим, чтобы система знала больше, чем ей действительно нужно, и точно не хотим, чтобы она хранила что-то «на всякий случай». Для нас это вопрос не только технический, но и мировоззренческий. Именно с таким подходом мы хотим развивать свои ИИ-инструменты и в дальнейшем», — подчеркивает специалист.
ИИ-адаптация к евростандартам
Создание первой в Украине саморегулируемой организации в сфере искусственного интеллекта — это не только реакция на национальные вызовы, но и важное позиционирование Украины как ответственного участника глобальной среды ИИ. Это также отмечают в Ассоциации IT Ukraine.
«Страны G7, Европейский Союз, Великобритания, Канада, Япония, а также ведущие мировые компании Google, Meta, Amazon и Microsoft уже разрабатывают и внедряют этические кодексы, стандарты, независимые аудиты и политики самоотчетности. В этом контексте инициатива украинских компаний по созданию первой в Украине организации по этическому и ответственному использованию ИИ является своевременным и стратегически важным шагом», — отмечает Мария Шевчук, Исполнительный директор Ассоциации IT Ukraine.
Владимир Кубицкий, Head of AI MacPaw также считает, что подобная инициатива — это способ подготовиться к европейскому регулированию в сфере ИИ.
«Бизнесу важно уже сейчас направлять свою деятельность в соответствии с будущими правилами, формируя внутренние политики, которые будут совместимы с будущими законодательными требованиями», — подчеркнул Владимир Кубицкий.
В этом тем более есть смысл, что требования ЕС в сфере регулирования ИИ признаются достаточно жесткими. По крайней мере, в компании Meta заявили на днях, что не будут присоединяться к добровольному Кодексу практик для искусственного интеллекта, который разработала Еврокомиссия накануне вступления в силу регламента AI Act. Как сообщило издание TechCrunch со ссылкой на публикацию в LinkedIn вице-президента Meta по глобальным делам Джоэла Каплана, такое решение компании объясняется тем, что европейский подход к регулированию ИИ является чрезмерно жестким и противоречит интересам разработчиков.
Европейский AI Act вступит в силу 2 августа 2025 года. Закон об искусственном интеллекте, основанный на оценке рисков, прямо запрещает некоторые наиболее опасные практики, такие как когнитивно-поведенческие манипуляции или социальное оценивание. Правила также определяют «высокорисковые» сферы применений ИИ, такие как биометрия и распознавание лиц, а также использование ИИ в образовательной сфере и трудоустройстве. Закон требует от разработчиков регистрировать системы искусственного интеллекта и выполнять обязательства по управлению рисками и качеством.
Автор: Сергей Василевич