Как индустрия борется с ИИ-фейками
С появлением современных инструментов искусственного интеллекта индустрия оказалась в непростом положении. Разработчиков критикуют за создание сервисов, которые позволяют генерировать убедительный контент без особых усилий. Поэтому крупные компании предпринимают шаги для предотвращения манипуляций.
OpenAI и Microsoft установили фильтры, которые не позволяют генерировать контент на определенные темы. Например, ChatGPT не будет создавать политически ангажированный или исторически недостоверный материал. DALL-E не будет генерировать изображения публичных личностей.
Эти фильтры, а возможно, и другие, были внедрены в продукты Microsoft: Bing, Copilot и Designer, основанные на моделях OpenAI.
Google также предпринимает меры по борьбе с манипулятивным и дезинформационным контентом. Корпорация выпустила руководство, в котором указала, что сгенерированные ИИ тексты рассматриваются как спам. Поисковик ориентируется на качественные тексты, написанные людьми.
YouTube также объявил войну ИИ-контенту, требуя от авторов отмечать использование манипуляций с помощью технологии искусственного интеллекта. В противном случае контент может быть удален.
Коалиция по проверке достоверности и аутентичности контента (C2PA), созданная техногигантами, добавляет метки на ИИ-контент, чтобы идентифицировать его.
Meta представила систему маркировки для своего генератора Imagine, а также обещает маркировать все ИИ-изображения, созданные другими моделями.
Некоторые инструменты, такие как Stable Diffusion и Meta Llama 2, могут генерировать материалы без ограничений, что делает контроль над манипулятивным контентом сложным.
ИИ сам по себе может стать источником дезинформации из-за способности «галлюцинировать» информацию. Чат-боты, такие как ChatGPT, Copilot, Gemini и Grok, могут выдумывать статистические данные, факты и события.
В целом, индустрия принимает меры для борьбы с ИИ-фейками, но вызовы остаются.