A Open Source Initiative (OSI), uma instituição reconhecida que visa a definição e a preservação dos princípios do open source, apresentou recentemente a versão 1.0 de sua definição de Inteligência Artificial Open Source (OSAID). Este marco, que surge após anos de discussões e colaborações com acadêmicos e profissionais do setor, pretende estabelecer um padrão claro que permitirá que pesquisadores e desenvolvedores identifiquem se um modelo de inteligência artificial é verdadeiramente open source. Em um mundo cada vez mais digital, a importância de uma definição consensual se torna evidente, especialmente em relação às recentes movimentações regulatórias voltadas para o setor tecnológico. Como explica Stefano Maffulli, vice-presidente executivo da OSI, o objetivo é alinhar a compreensão de reguladores e desenvolvedores sobre o que significa ser open source, visando assim a criação de um ambiente mais transparente e justo.

A definição do OSAID estabelece que um modelo de inteligência artificial deve oferecer informações suficientes sobre seu design, permitindo que um indivíduo possa reproduzi-lo de maneira “substancial”. Isso significa que os modelos devem divulgar detalhes relevantes sobre seus dados de treinamento, incluindo a origem, o processo utilizado e como esses dados podem ser obtidos ou licenciados. Maffulli enfatiza que um modelo de inteligência artificial open source deve permitir um entendimento completo de sua construção, o que implica no acesso a todos os componentes, como o código completo utilizado para treinamento e filtragem de dados. Além disso, a OSAID também define os direitos de uso que os desenvolvedores devem esperar ao trabalharem com inteligência artificial open source. Esses direitos incluem a liberdade para utilizar o modelo para qualquer propósito e modificar o código sem a necessidade de consentimento prévio, refletindo a essência do que significa open source.

É importante destacar que, apesar de não haver mecanismos de enforcement para garantir a aplicação da OSAID, a OSI se compromete a sinalizar modelos que se autodenominam “open source”, mas que não atendem aos critérios estabelecidos. A esperança é que, quando ocorra uma má utilização do termo, a comunidade de inteligência artificial reaja e corrija essa percepção. Historicamente, tentativas de definir e regular o uso do termo têm resultados variados, mas não são totalmente ineficazes. Muitas startups e grandes empresas de tecnologia, como Meta, têm utilizado o termo “open source” para descrever suas estratégias de lançamento de modelos de IA, mas poucos realmente se enquadram nos critérios da OSAID. A Meta, por exemplo, exige que plataformas com mais de 700 milhões de usuários ativos mensais obtenham uma licença especial para usar seus modelos Llama, levando Maffulli a criticar abertamente essa classificação.

A controversa natureza da classificação “open source” também ficou evidente em uma pesquisa realizada em agosto do ano passado, que revelou que muitos modelos rotulados como open source são, na verdade, aberturas enganosas. O estudo, realizado pela Signal Foundation, pelo AI Now Institute e pela Carnegie Mellon, concluiu que os dados necessários para treinar esses modelos geralmente são mantidos em segredo, enquanto o poder computacional necessário para operá-los está além da capacidade de muitos desenvolvedores. Além disso, as técnicas para aperfeiçoar esses modelos são de uma complexidade assustadora para muitos profissionais. Em vez de democratizar a inteligência artificial, muitos destes “projetos open source” tendem a consolidar ainda mais o poder em mãos de gigantes do setor.

A Meta, evidentemente, discorda dessa avaliação e levanta questionamentos sobre a própria OSAID, mesmo tendo participado do processo de elaboração do documento. Um porta-voz da empresa defendeu a licença dos modelos Llama, argumentando que suas especificações e políticas de uso aceitável atuam como salvaguardas contra implantações prejudiciais. Eles também salientaram que a Meta adota uma abordagem cautelosa ao compartilhar detalhes sobre os modelos, em especial sobre os dados de treinamento, devido à evolução de regulamentos como a lei de transparência de treinamento da Califórnia. Assim, a Meta reafirma seu compromisso com a abertura e acessibilidade da IA, embora reconheça que a definição de open source permanece complexa e desafiadora.

Entretanto, a controvérsia em torno da definição da OSAID suscita muitas perguntas sem resposta. Alguns especialistas opinam que a definição não aborda profundamente questões de licenciamento de dados de treinamento. Luca Antiga, CEO da Lightning AI, observa que um modelo pode atender a todos os requisitos da OSAID, mesmo que os dados usados para o treinamento não sejam disponibilizados gratuitamente. Portanto, questiona-se: será realmente open source se for necessário desembolsar valores elevados para acessar os dados? Para que a definição seja realmente útil, especialmente para as empresas, ela precisa dar confiança razoável de que o que está sendo licenciado pode ser utilizado dentro do contexto desejado. Ao ignorar a questão do licenciamento dos dados de treinamento, a OSI pode deixar uma lacuna significativa que tornará os termos menos eficazes na determinação acerca dos modelos de IA licenciados pela OSI em situações do mundo real.

A versão 1.0 da OSAID não aborda a questão dos direitos autorais em relação aos modelos de IA, o que levanta questões sobre se a concessão de uma licença de direitos autorais seria suficiente para garantir que um modelo atenda à definição de open source. Atualmente, ainda não está claro se os modelos, ou componentes de modelos, podem ser protegidos pela legislação de propriedade intelectual vigente. Se os tribunais determinarem que podem, a OSI sugere que novos “instrumentos legais” poderão ser necessários para abrir adequadamente modelos protegidos por propriedade intelectual. Maffulli reconheceu que a definição precisará de atualizações — talvez em um futuro não tão distante. Para atender a essa demanda, a OSI criou um comitê encarregado de monitorar a aplicação da OSAID e propor emendas para versões futuras.

Portanto, o debate em torno da definição de inteligência artificial open source está longe de ser encerrado. Com uma nova definição em mãos e a participação ativa de diversos grupos de interesse, a esperança é que os próximos passos levem a um ambiente mais transparente e que promova a verdadeira colaboração entre os desenvolvedores e todas as partes interessadas. Afinal, como disse Maffulli, “este não é o trabalho de gênios solitários em um porão, mas uma iniciativa conduzida de forma aberta, envolvendo uma ampla gama de partes interessadas”.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *