Художники хотят иметь возможность размещать свои работы в интернете, не опасаясь «накормить этого монстра», который может их заменить. Роботы придут на рабочие места людей. Это было предсказуемо с самого начала. Правда, мы предполагали, что они возьмут на себя ручной труд, поднимая тяжелые поддоны на складе и сортируя вторсырье. Теперь значительные достижения в области генеративного искусственного интеллекта означают, что роботы заменят и художников. Изображения, созданные ИИ с помощью простых текстовых подсказок, выигрывают художественные конкурсы, украшают обложки книг и рекламные постеры, заставляя людей-художников беспокоиться о своем будущем. Угроза может ощущаться очень личной. Генератор изображений под названием Stable Diffusion был обучен распознавать шаблоны, стили и взаимосвязи путем анализа миллиардов изображений, собранных из общедоступного интернета, наряду с текстом, описывающим их содержание. Среди изображений, на которых он тренировался, были работы Грега Рутковски, польского художника, который специализируется на фантастических сценах с участием драконов и волшебных существ. Изучение работ Рутковски позволило инструменту так эффективно понять его стиль, что, когда в прошлом году Stable Diffusion был выпущен для широкой публики, имя польского художника стало тегом для пользователей, которые хотели создавать фантастические, причудливые изображения. Один художник заметил, что причудливые ИИ-селфи, которые выходят из вирусного приложения Lensa, имеют призрачные подписи, имитирующие то, что ИИ узнал из данных, на которых он тренировался: художники, которые делают портреты, подписывают свои работы. «Эти базы данных были созданы без какого-либо согласия, любого разрешения от художников», — замечает Рутковски. С тех пор, как появились генераторы изображений, Грег получил гораздо меньше запросов от начинающих авторов, которым нужны обложки для их фантастических романов. Между тем, Stability AI, компания, стоящая за Stable Diffusion, недавно привлекла 101 миллион долларов от инвесторов и сейчас оценивается более чем в 1 миллиард долларов. «Художники боятся публиковать новые произведения искусства», — предполагает профессор компьютерных наук Бен Чжао. Многие художники рекламируют свои услуги, размещая свои работы в интернете, но теперь у них есть «страх накормить этого монстра, который становится все более и более похожим на них. Это разрушает их бизнес-модель». Это привело профессора Чжао и команду исследователей в области компьютерных наук из Чикагского университета к разработке инструмента под названием Glaze, который призван помешать ИИ-моделям изучать стиль конкретного художника. Для разработки инструмента, который они планируют сделать доступным для скачивания, исследователи опросили более 1100 художников и тесно сотрудничали с Карлой Ортис, иллюстратором и художником из Сан-Франциско. Предположим, что Карла Ортис хочет опубликовать новую работу в интернете, но не хочет, чтобы ИИ ее украл. Она может загрузить цифровую версию своей работы в Glaze и выбрать вид искусства, отличный от ее собственного, скажем, абстрактный. Затем инструмент вносит изменения в рисунки мисс Ортис на уровне пикселей, которые Stable Diffusion ассоциировал бы, например, с разбрызганными каплями красок, как у Джексона Поллока. Для человеческого глаза это изображение, обработанное Glaze, по-прежнему выглядит как ее работа, но модель компьютерного обучения уловила бы что-то совсем другое. Это похоже на инструмент, ранее созданный командой Чикагского университета для защиты фотографий от систем распознавания лиц. Когда Карла разместила свою работу после обработки Glaze в интернете, генератор изображений, обученный на этих изображениях, не смог имитировать ее работу. Подсказка с ее именем вместо этого приведет к изображениям в каком-то гибридном стиле ее работ и работ Поллока. «Мы забираем свое согласие обратно», — говорит Ортис. ИИ-генераторы, многие из которых взимают с пользователей плату за создание изображений, «содержат данные, которые им не принадлежат. Эти данные — мое произведение искусства, это моя жизнь. Это похоже на мою личность». Команда из Чикагского университета признала, что их инструмент не гарантирует защиту и может привести к контрмерам со стороны любого, кто стремится подражать конкретному художнику. «Мы прагматики, — заявляет профессор Чжао. — Мы признаем вероятную длительную задержку, прежде чем закон, защищающий художников, соответствующие правила и политика вступят в силу». Многие эксперты по правовым вопросам сравнивают дебаты о неограниченном использовании работ художников для ИИ-генераторов с проблемами пиратства в первые дни существования интернета с такими сервисами, как Napster, которые позволяли людям потреблять музыку, не платя за нее. ИИ-компании уже сталкиваются с аналогичным шквалом судебных исков. В прошлом месяце Карла Ортис и два других художника подали коллективный иск против компаний, предоставляющих услуги по созданию произведений искусства с использованием Stable Diffusion, — в этом иске говорится о нарушениях авторских прав и права на публичность. «Эти обвинения представляют собой непонимание того, как работает генеративная технология ИИ, и закона, касающегося авторского права», — говорится в заявлении Stability AI. Getty Images также подала в суд на Stability AI за копирование миллионов фотографий без лицензии. «Мы изучаем документы и ответим соответствующим образом», — заявила представитель компании. Жанна Фромер, профессор права интеллектуальной собственности в Нью-Йоркском университете, считает, что у компаний могут быть веские аргументы в пользу добросовестного использования. «Как художники-люди учатся создавать искусство? Они часто копируют что-то и используют множество существующих работ, изучают шаблоны и элементы стиля, а затем создают новые работы. И поэтому на каком-то уровне можно сказать, что машины учатся создавать искусство таким же образом». В то же время, по словам профессора Фромер, целью закона об авторском праве является защита и поощрение человеческого творчества. «Если мы заботимся о защите профессии или считаем, что создание искусства важно для того, кем мы являемся как общество, мы заинтересованы в защите художников». Некоммерческая организация под названием the Concept Art Association недавно собрала более 200000 долларов через GoFundMe на оплату юристов, чтобы попытаться убедить Конгресс США защитить интеллектуальную собственность художников. «Мы противостоим технологическим гигантам с неограниченными бюджетами, но мы уверены, что Конгресс признает, что защита ИС является правильной аргументацией», — заявили основатели ассоциации. Рэймонд Ку, профессор авторского права, считает, что вместо того, чтобы просто брать произведения искусства из интернета, в итоге мы придем к разработке некой «частной контрактной системы, которая гарантирует некоторую степень компенсации автору». Другими словами, художникам могут платить номинальную сумму, когда их искусство используется для обучения ИИ и создания новых образов, подобно тому, как музыкантам платят компании, занимающиеся потоковым воспроизведением музыки. Энди Байо, писатель и технолог, изучил данные обучения, используемые Stable Diffusion, и сказал, что эти сервисы могут имитировать стиль художника, потому что видят имя художника рядом с работой снова и снова: «Вы могли бы удалить имена из набора данных, чтобы ИИ не смог явно изучить стиль художника». Один сервис, похоже, уже сделал что-то в этом роде. Когда в ноябре Stability AI выпустили новую версию Stable Diffusion, в ней произошли заметные изменения: подсказка «Грег Рутковски» больше не работала для получения изображений в его стиле, что отметил исполнительный директор компании Эмад Мостак. Поклонники Stable Diffusion были разочарованы. «Что вы сделали с Грегом», — написал один из них на официальном форуме Discord, который часто посещает Мостак. Он заверил пользователей форума, что те могут настроить модель заново. «Обучение на Греге не будет слишком сложным», — ответил другой человек. Грег Рутковски заявил, что планирует начать пропускать свои работы через Glaze. По материалам статьи «This Tool Could Protect Artists From A.I.-Generated Art That Steals Their Style» The New York Times