“`html
Em um movimento significativo que pode moldar o uso mais amplo da inteligência artificial generativa em Hollywood, YouTube e CAA uniram forças para desenvolver ferramentas que permitirão que celebridades gerenciem suas imagens na plataforma, incluindo vídeos que podem usar inteligência artificial generativa para recriar a aparência de estrelas.
A plataforma de vídeos, pertencente ao Google, e a agência de talentos divulgaram o acordo na manhã de terça-feira, apresentando-o como uma forma de utilizar a tecnologia de inteligência artificial de maneira responsável enquanto protege artistas e criadores. O YouTube anunciou que, nos próximos meses, começará a testar as ferramentas com “principais criadores do YouTube, profissionais criativos e outros parceiros representando talentos”.
“Neal e eu começamos a conversar no início deste ano sobre a importância de criar um ecossistema de IA responsável que proteja os artistas, ao mesmo tempo em que desbloqueia novas possibilidades para a expressão criativa”, disse Bryan Lourd, CEO e co-presidente da CAA. “Nas conversas sobre IA que temos na CAA, focamos na ética e nos direitos do talento. Aplaudimos a liderança do YouTube por criar essa solução favorável aos talentos, que se alinha fundamentalmente com nossos objetivos. Estamos orgulhosos de formar essa parceria com o YouTube enquanto ele dá um passo tão significativo no fortalecimento dos talentos, proporcionando-lhes um maior controle sobre suas imagens digitais e como e onde são usadas.”
“Acreditamos que uma abordagem responsável à IA começa com parcerias sólidas”, disse Neil Mohan, CEO do YouTube. “Estamos empolgados para colaborar com a CAA, uma organização que compartilha nosso compromisso de empoderar artistas e criadores. Nos próximos dias, trabalharemos com a CAA para garantir que artistas e criadores possam experimentar o incrível potencial da IA, ao mesmo tempo em que mantêm o controle criativo sobre sua imagem. Essa parceria marca um passo significativo em direção à construção desse futuro.”
Os detalhes sobre as novas ferramentas ainda são um tanto vagos, com a plataforma dizendo que se trata de “tecnologia em estágio inicial projetada para identificar e gerenciar conteúdo gerado por IA que apresente suas imagens, incluindo seus rostos, no YouTube em grande escala.”
Além de identificar conteúdos que apresentem suas imagens, as celebridades também poderão solicitar remoções através do processo de reclamação de privacidade do YouTube.
A CAA tem uma relação complexa com a tecnologia de IA generativa. A agência tem sido agressiva na defesa de seus clientes, como quando Scarlett Johansson criticou a OpenAI pela liberação de uma voz gerada por IA que soava suspeitosamente como a dela.
“Sam Altman, CEO da OpenAI, vive em um mundo diferente e tem uma compreensão diferente do que os artistas fazem e do que possuem, literalmente, eticamente e moralmente”, disse Lourd em uma conferência do Financial Times em junho. “Para o crédito da OpenAI, eles removeram [a voz] quando eu pedi que a tirassem do ar. Não acho que tenham feito isso por bondade. Eu acho que eles perceberam como era complicada a situação que criaram e na qual se meteram.”
Ele também comentou na conferência que havia “nada além de oportunidades em torno da IA”, dada a capacidade de as estrelas monetizarem suas imagens de maneiras que requerem muito menos trabalho real e a possibilidade de produzir muito mais conteúdo a um custo menor.
A CAA possui também um negócio próprio, o CAA Vault, que abriga imagens digitais e vozes de estrelas que podem ser licenciadas para projetos de cinema, televisão e comerciais, com sua aprovação e, claro, compensação.
CAA e New Enterprise Associates’ Connect Ventures também lideraram uma rodada de investimento de 20 milhões de dólares na Deep Voodoo, uma empresa de deepfake fundada pelos criadores de South Park, Matt Stone e Trey Parker.
Enquanto isso, o YouTube tem adicionado de forma agressiva ferramentas de IA à sua plataforma para ajudar os criadores a desenvolver e publicar conteúdo. Ao mesmo tempo, prometeu adicionar medidas de controle especialmente limitando deepfakes e vozes semelhantes.
A empresa anunciou que estava desenvolvendo tecnologia de detecção de imagens no início deste ano, com a parceria com a CAA sendo o primeiro passo para seu lançamento em grande escala.
“`