18 июля 2024 года на Форуме по безопасности в Аспене (США) было объявлено о создании Коалиции за безопасный искусственный интеллект (ИИ) — CoSAI.
Новая структура (далее — Коалиция) организована глобальным органом по стандартизации OASIS и является инициативой по созданию совместной экосистемы для обмена методологиями с открытым исходным кодом, стандартизированными фреймворками и инструментами.
CoSAI объединила лидеров отрасли, ученых и других экспертов, для решения проблем безопасности искусственного интеллекта.
Первыми участниками — основателями CoSAI стали Google, IBM, Intel, Microsoft, NVIDIA и PayPal. К ним уже примкнули Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI и Wiz.
В сферу деятельности CoSAI входит безопасное создание, интеграция, развертывание и эксплуатация систем ИИ с упором на снижение таких рисков, как кража моделей, искажение данных, масштабные злоупотребления и кибератаки.
Коалиция сформировала три рабочих направления своей деятельности, которые со временем будут расширены:
— безопасность цепочки поставок программного обеспечения для систем ИИ;
— подготовка защиты к меняющемуся ландшафту кибербезопасности;
— управление безопасностью ИИ.
При этом компании-основатели дают свои трактовки участия в CoSAI (приводится в сокращенном виде).
Google. «CoSAI поможет организациям, большим и малым, безопасно и ответственно интегрировать ИИ, помогая им использовать его преимущества и одновременно снижать риски».
IBM. «Участвуя в CoSAI, мы стремимся содействовать сотрудничеству, инновациям и образованию, чтобы системы ИИ были более безопасными по своей сути».
Intel. «Скорость инноваций в области ИИ должна соответствовать безопасности ее творений».
Microsoft. «Microsoft остается верна своей приверженности тому, чтобы безопасность и защищенность лежали в основе разработки систем ИИ».
NVIDIA. «Поскольку внедрение ИИ продолжает расти в отраслях, крайне важно обеспечить надлежащее руководство и меры безопасности при создании и развертывании моделей».
PayPal. «PayPal гордится партнерством с CoSAI, помогая формировать отраслевые руководящие принципы и стандарты для безопасной разработки ИИ».
В своих статьях я уже не раз поднимал вопрос о безопасности ИИ, а в выступлениях на конференциях даже сравнивал значимость разработки и риски использования ИИ с созданием и рисками применения ядерного оружия. И это сравнение уже давно перестало быть гиперболой.
Угроза использования ИИ во вред человеку становится столь очевидной, что самые крупные игроки рынка сочли важным создание Коалиции.
С другой стороны, организация такой структуры — это попытка установки неких «правил игры» в отрасли.
При этом создание Коалиции по национальному признаку может стать шагом по консолидации всех технологий использования ИИ в единую экосистему для последующей доминации в данном секторе экономики.
А отрасль создания и разработки различных моделей, программ искусственного интеллекта, кроме того, что видится ступенькой к новому технологическому укладу, давно уже является полем жесткой конкуренции мировых ИТ-гигантов, а в ближайшем будущем — и стран.