GPT-3, o programa de inteligência artificial

Foto: Shutterstock.

O GPT-3 é um programa de inteligência artificial capaz de consultar 175 bilhões de parâmetros para escrever textos.

Sucessor do GPT e do GPT-2, cujas letras do nome significam “Generative Pre-trained Transformer” e definem a forma como se comporta o robô, ele pode produzir obras confundíveis com as de um humano.

O modelo de linguagem é de autoria da empresa OpenAI, fundada pelo bilionário estadunidense Elon Musk.

Naturalmente, como qualquer outra inteligência artificial, conta com falhas em seu funcionamento.

Contudo, para fins de comparação, o número de parâmetros do GPT e do GPT-2 eram respectivamente 117 milhões e 1.5 bilhões.

Para se ter uma noção, entre todas as informações que alimentam o sistema de aprendizado do GPT-3, os 6 milhões de artigos da Wikipédia representam 0.6%.

Quaisquer manifestações textuais disponíveis em formato digital podem alimentar esse sistema.

Portanto, o GPT-3 é capaz de ler a maioria dos artigos publicados online, o que inclui teorias da conspiração e manuais de propaganda.

Após a equipe da OpenAI permitir o acesso aos dados do Beta do GPT-3, exemplos na internet começaram a aparecer do código gerando resultados que vão desde tablaturas de violão passando por materiais de natureza legal e até códigos simples de linguagens de programação.

Mas apenas exemplos que funcionam têm ganhado notoriedade nas redes, enquanto os que não funcionam ficam ofuscados pelos casos de sucesso.

Portanto, as capacidades do GPT-3 parecem mais impressionantes à primeira vista do que pareceriam se todas suas falhas recebessem exposição.

Contudo, cometer erros gramaticais ou matemáticos são apenas pequenos problemas derivados da existência do modelo.

O viés que jaz por debaixo dos códigos é um dos grandes problemas, ainda que seja este um problema que acometa todos os modelos de linguagem de inteligência artificial existentes hoje.

No caso, essas máquinas agem e reagem com base em informações com as quais são alimentadas durante seu “treinamento”.

Neste caso, inscritas por humanos. Ainda que o GPT-3 seja treinado com fontes críveis como BBC e The New York Times, ele também foi exposto a tópicos de redes sociais como o Reddit.

Pesquisadores da Arthur, empresa especializada em segurança e monitoramento de inteligência artificial, detectaram uma propensão do GPT-3 a colocar ao lado de pronomes femininos palavras sexistas, bem como associar “Islã” a termos como “terrorismo”.

O GPT-3 pode ser usado de maneira tão inofensiva quanto a criação mais prática de menus robotizados de autoatendimento, mas também tão grave que possa acirrar tensões e desavenças políticas e culturais.

É um poderoso modelo de linguagem que pode ser capaz de estabelecer as bases para uma forma de inteligência artificial ainda mais elaborada, mas é também uma criação humana que aprende com humanos imperfeitos.

(NZ)

Redação:
Related Post

Privacidade e cookies: Este site utiliza cookies. Ao continuar a usar este site, você concorda com seu uso.