Um grupo de artistas que estava entre os primeiros a testar o OpenAI Sora inadvertidamente divulgou o acesso ao gerador de vídeo de inteligência artificial na terça-feira. No entanto, é importante esclarecer os detalhes para evitar simplificações equivocadas da situação.
A OpenAI encerrou o acesso à plataforma Sora para todos os testadores, porém, por um período de aproximadamente três horas, o público teve a oportunidade de experimentar a ferramenta. Em uma declaração divulgada juntamente com a demonstração disponibilizada no Hugging Face, os desenvolvedores permitiram o acesso à Sora como forma de protesto contra a prática de “lavagem de arte”, a qual acreditam terem sido induzidos pela OpenAI.
Porém, a situação é um pouco mais complexa do que simplesmente “artistas descontentes com a IA vazam o modelo”. Vamos analisar com mais detalhes o que ocorreu e o que não ocorreu.
As informações de identificação foram expostas, não houve vazamento do código.
Um suposto vazamento de informações sobre Sora pode ter sido percebido como o momento de revelação aguardado por muitos.
Quando o OpenAI revelou Sora em fevereiro passado, houve uma grande especulação sobre a origem dos dados usados para treinar o gerador de vídeo AI. Muitos artistas suspeitam que os dados foram coletados de vídeos no YouTube e em outros sites sem autorização explícita. A OpenAI decidiu não revelar mais informações, porém, com base em casos anteriores de violação de direitos autorais envolvendo seus modelos, a empresa argumenta que os dados disponíveis publicamente estão dentro da legalidade do uso justo sob as leis de direitos autorais.
No entanto, essa questão ainda é amplamente discutida, uma vez que a OpenAI e outras empresas estão sendo constantemente questionadas sobre a originalidade do conteúdo gerado pela inteligência artificial e se ele representa concorrência comercial para obras criadas por seres humanos.
Quando o TechCrunch divulgou o incidente de vazamento, todos estavam ansiosos para investigar mais a fundo e descobrir a composição de Sora. No entanto, o vazamento de Sora não revela detalhes sobre o modelo ou os dados utilizados em seu treinamento. Tratava-se basicamente de uma demonstração online publicamente acessível, possivelmente obtida através do compartilhamento de acesso à API. Parece ter dado acesso público aos recursos de Sora nos servidores da OpenAI. No entanto, embora tenha permitido brevemente que qualquer pessoa no mundo criasse vídeos com Sora, esse tipo de vazamento não fornece informações novas sobre o modelo Sora em si.
Tratou-se de uma manifestação contra o programa de testes iniciais da OpenAI, e não de uma oposição à inteligência artificial.
Os artistas que disponibilizaram publicamente a Sora fizeram isso porque se sentiram explorados pela OpenAI, que os utilizava para pesquisa e divulgação sem pagamento, aproveitando seu trabalho não remunerado para testes e feedback. Além disso, cada obra precisa ser autorizada pela equipe da OpenAI antes de ser compartilhada. Parece que esse programa de acesso antecipado se concentra mais em relações públicas e propaganda do que em expressão criativa e crítica.
O grupo não estava exagerando ao criticar a OpenAI como “superiores corporativos de IA”, e embora não se oponham ao uso da tecnologia de IA como uma ferramenta nas artes, eles questionam a forma como o programa está sendo implementado e como a ferramenta está sendo desenvolvida antes de um eventual lançamento público.
Muitas vezes há uma perda de sutileza no discurso sobre a inteligência artificial. Muitos artistas não se opõem a utilizar a IA como uma ferramenta para expressão criativa. No entanto, a substituição de empregos por automação é frequentemente confundida com resistência à inovação. Não sabemos ao certo o que motivou a revolta em relação à forma como Sora está se destacando antes de seu lançamento, mas é provável que a OpenAI esteja buscando avaliações positivas de seus testadores de arte, o que causa essa desconexão.
OpenAI
Comments