Белоснежный дом объявил о соглашении с наикрупнейшими южноамериканскими технологическими компаниями о внедрении дополнительных мер безопасности в области ИИ. Посреди главных мер — разработка системы водяных символов для идентификации контента, сделанного при помощи ИИ, что является частью борьбы с дезинформацией и другими рисками, связанными с этой мгновенно развивающейся технологией.
Белоснежный дом проговорил, что 7-мь самых крупных компаний в области ИИ — Amazon, Anthropic, Гугл, Inflection, Meta✴, Microsoft и OpenAI — добровольно принимают на себя обязательства, которые включают:
- испытание безопасности и способностей собственных ИИ-систем перед их общественным пуском;
- вложение капитала в исследования рисков ИИ-технологии для общества;
- содействие наружному аудиту уязвимостей в собственных ИИ-системах.
В рамках соглашения, южноамериканские техногиганты разработают и введут систему водяных символов для зрительного и аудио контента. Водяной символ будет встроен в платформу таким макаром, что всякий контент, сделанный юзером, будет опознать, какая система ИИ его сделала, либо указывать, что он был сотворен при помощи ИИ.
Это происходит в то время, когда глава Джо Байден (Joe Biden) и его администрация уделяют всё больше внимания как преимуществам, так и подводным камням ИИ, с целью разработки мер безопасности вокруг технологии через её регулирование и усовершенствование законодательства. Байден созвал встречу с профессионалами и исследователями ИИ в Сан-Франциско в прошедшем месяце и принял глав исполнительных директоров Гугл, Microsoft, Anthropic и OpenAI в Белоснежном доме в мае. Фавориты этих компаний нынче опять повстречаются с действующим главой государства США в Белоснежном доме.
«Мы будем выдвигать требования от их выполнения взятых обязанностей. Компаниям придётся и надо будет делать больше, чем они делают на данный момент, и федеральному правительству тоже», — произнес глава штаба Белоснежного дома Джефф Зайентс (Jeff Zients). Но, согласно самому заявлению, нет устройств для принудительного выполнения озвученных обязанностей, потому что они в главном отражают практики безопасности, которые уже были внедрены либо обещаны компаниями, занятыми в сфере ИИ. К примеру, сначала чем OpenAI запустила свою модель GPT-4 в конце марта этого года, компания издержала около полугода на работу с наружными профессионалами, которые пробовали вызвать её на создание вредного либо расистского контента.
Новые обязательства, отмечают в Белоснежном доме, не являются подменой федерального законодательства, и Белоснежный дом деятельно разрабатывает указ, регулирующий применение ИИ. Это шаг вперёд в установлении правил вокруг инструментов ИИ, беря во внимание уроки, извлечённые из отсутствия способности удержать распространение дезинформации и вредного контента в соц сетях.