Корпорация OpenAI объявила о старте программы «Copyright Shield», цель которой — обеспечение защиты клиентов-бизнесменов от потенциальных судебных претензий, связанных с нарушением авторских прав в процессе использования продукции OpenAI. В контексте данной инициативы, OpenAI берёт на себя обязательства по оплате юридических расходов своих клиентов, которые применяют открытые инструменты её разработческой платформы, а также коммерческую версию чат-бота ChatGPT Enterprise.
«Copyright Shield» распространяет своё действие на пользователей платформы для разработчиков от OpenAI и на тех, кто использует ChatGPT Enterprise — коммерческую версию искусственного интеллекта для общения. Но следует учесть, что данная защита не касается бесплатных и Plus-версий ChatGPT, и пока не ясно, включает ли программа защиту от исков, касающихся обучающих данных, использованных в генеративных AI-моделях компании.
Генеративные AI-модели, в числе которых ChatGPT, GPT-4 и DALL-E 3, тренируются на обширных наборах данных, включающих литературные произведения, искусство, электронные сообщения, музыкальные треки и аудиозаписи. Большая часть этих данных исходит из открытых источников, и хотя некоторые из них не защищены авторским правом, другие подпадают под авторские права или имеют ограничительные лицензии. Правовые аспекты использования таких данных для обучения AI сейчас активно рассматриваются в юридической практике.
Проблемы могут возникать, когда AI-модель воссоздаёт точные отрывки данных, на которых она обучалась, что может привести к нарушению авторских прав. Опросы, проведённые среди крупных корпораций и разработчиков, подчёркивают, что вопросы интеллектуальной собственности стоят на переднем плане при внедрении технологий генеративного AI.
Ведущие технологические компании, такие как IBM, Microsoft, Amazon, а также фотобанки вроде Getty Images, Shutterstock и Adobe, уже выразили готовность защищать своих клиентов от юридических исков, связанных с интеллектуальной собственностью. Теперь к этому ряду присоединилась и OpenAI, что может указывать на необходимость создания аналогичных механизмов защиты пользователей во всей отрасли.