Denis Sexy IT 🤖
На DTF интересный пост от актрисы озвучки которая потеряла работу из-за того, что ее голос «украл» T...
На DTF интересный пост от актрисы озвучки которая потеряла работу из-за того, что ее голос «украл» Tinkoff Банк:
Под «украл» она имеет в виду, что представители банка не рассказали детали проекта, договора были хитро составлены, а сотрудники банка не раз говорили Алене, что ее голос «будет использоваться для внутренних нужд банка». Речь о 2019 годе, Алена про потенциал нейронок еще тогда не знала.
В итоге:
Ее голосом можно озвучить что угодно (есть примеры порно рекламы), создается это все через Tinkoff VoiceKit. Самое грустное, что ее бывшие клиенты, теперь идут в Tinkoff VoiceKit и генерируют ее голос для озвучки чего-то, хотя раньше наняли бы ее.
Мое мнение:
Персонально, я сожалею актерам озвучки, которых задел прогресс, но к сожалению это уже необратимый процесс (конкретно для них). Толковой законодательной базы все еще нет (а в 2019 и подавно), поэтому крупные корпорации делают, что хотят и неизвестно будет ли им за это что-то (капитализм, huh).
В мире ситуация похожая, люди копируют голос знаменитости, выкладывают на ютуб и юридически утверждают что это пародия или fair usage, где-то ролики банят, а где-то нет. Или из недавнего: умельцы копируют голос знаменитости и озвучивают этим голосом песню, и уже лейбл ходит по интернету и блокирует песню на всех площадках, так как они с этого ничего не получают и владеют правами на песни исполнителя.
Вся юридическая база для этих случаев пишется прямо сейчас, но коснется она в основном регулирования крупных корпораций и брендов.
При этом, Text-to-Audio модели которое обучило сообщество свободно циркулируют в интернете, то есть каждый может скачать голос какого-то Дрейка или Алены (просто обучить новый на результатах VoiceKit), и озвучить им любую песню или текст. И тут, я не думаю, что удастся добиться какой-то регуляции — если человеку нравится чей-то голос, то сделать синтез-копию его настолько просто, что ролики с порно рекламой никуда не денутся:
Алена записала 30+ минут видео, где озвучила то, с чем столкнулась. С технической стороны чтобы скопировать ее голос достаточно трех секунд из того же видео . То есть отлавливать "порно рекламщиков" и другие незаконные использования можно будет только постфактум, и это будет дорогой процедурой требующей юристов.
Не говоря уже про "смешанные" датасеты, где ты берешь похожие голоса людей и владельцы никогда не догадаются что их голоса скопировали и интерполировали.
Думаю, защитить себя от копирований в интернете будет невозможно еще довольно долго: лет через ~100 внешность и голос, и био-данные, наверное, будут каким-то видом персональных прав человека, гарантированной собственностью и тп, и будет куча всякого клевого на базе ИИ чтобы защитить гражданина в стране первого мира, но мы это вряд ли застанем, поэтому для нас хорошо бы если бы корпорации ограничили хотя бы (или заставили платить честные суммы).
Вообще странно читать такое — у Tinkoff все хорошо с деньгами было на тот момент, если ты встраиваешь голос человека в каждый утюг, странно не сделать этого человека счастливым — для банка кост незаметный, а человек будет хотеть и дальше работать вместе.
А в итоге – уничтоженные профессии сложными и не прозрачными договорами.