A OpenAI, a empresa por trás do renomado chatbot ChatGPT, realizou alterações em sua política de uso online. A partir de 10 de janeiro, a empresa removeu uma seção do texto que anteriormente proibia o emprego de sua tecnologia para fins “militares e de guerra”.
A percepção da mudança foi inicialmente reportada pelo The Intercept. A página anterior da política pode ser acessada aqui, enquanto o link para a política atualizada está disponível aqui.
É relevante observar que a OpenAI ainda mantém a proibição do uso de seus grandes modelos de linguagem (LLMs) para qualquer atividade que possa resultar em danos, e alerta contra a utilização de seus serviços para “desenvolver ou empregar armas”.
Posição da OpenAI
Ao ser questionado sobre a modificação na redação da política, Niko Felix, porta-voz da OpenAI, informou ao Intercept que a empresa “buscou criar um conjunto de princípios universais fáceis de lembrar e aplicar, especialmente porque nossas ferramentas são agora usadas globalmente por usuários comuns que agora também podem construir GPTs”.
Felix explicou que um princípio amplo como “Não prejudique os outros” é facilmente compreendido e relevante em vários contextos. Ele acrescentou que a OpenAI citou armas e ferimentos a terceiros como exemplos claros desse princípio.
Contexto da Mudança
A alteração na redação ocorre em um momento em que agências militares ao redor do mundo demonstram interesse em utilizar a Inteligência Artificial, incluindo o Pentágono. O uso dos grandes modelos de linguagem não necessariamente implica a produção de armas, mas pode ser aplicado em diversos processos internos de Departamentos de Defesa em todo o mundo.
Essa mudança na redação também coincide com um período em que a OpenAI enfrenta desafios no mercado, conforme discutido anteriormente no Olhar Digital. A empresa considera que um contrato com um governo seria altamente lucrativo.