Как индустрия борется с ИИ-фейками

23 апреля 2024 г.
от Cryptosip
Как индустрия борется с ИИ-фейками

С появлением современных инструментов искусственного интеллекта индустрия оказалась в непростом положении. Разработчиков критикуют за создание сервисов, которые позволяют генерировать убедительный контент без особых усилий. Поэтому крупные компании предпринимают шаги для предотвращения манипуляций.

OpenAI и Microsoft установили фильтры, которые не позволяют генерировать контент на определенные темы. Например, ChatGPT не будет создавать политически ангажированный или исторически недостоверный материал. DALL-E не будет генерировать изображения публичных личностей.

Эти фильтры, а возможно, и другие, были внедрены в продукты Microsoft: Bing, Copilot и Designer, основанные на моделях OpenAI.

Google также предпринимает меры по борьбе с манипулятивным и дезинформационным контентом. Корпорация выпустила руководство, в котором указала, что сгенерированные ИИ тексты рассматриваются как спам. Поисковик ориентируется на качественные тексты, написанные людьми.

YouTube также объявил войну ИИ-контенту, требуя от авторов отмечать использование манипуляций с помощью технологии искусственного интеллекта. В противном случае контент может быть удален.

Коалиция по проверке достоверности и аутентичности контента (C2PA), созданная техногигантами, добавляет метки на ИИ-контент, чтобы идентифицировать его.

Meta представила систему маркировки для своего генератора Imagine, а также обещает маркировать все ИИ-изображения, созданные другими моделями.

Некоторые инструменты, такие как Stable Diffusion и Meta Llama 2, могут генерировать материалы без ограничений, что делает контроль над манипулятивным контентом сложным.

ИИ сам по себе может стать источником дезинформации из-за способности «галлюцинировать» информацию. Чат-боты, такие как ChatGPT, Copilot, Gemini и Grok, могут выдумывать статистические данные, факты и события.

В целом, индустрия принимает меры для борьбы с ИИ-фейками, но вызовы остаются.