- Shin Suzuki
- Da BBC News Brasil em São Paulo
Em 30 de novembro passado, enquanto o mundo começava a entrar no clima de fim de ano e tinha os olhos mais voltados para a Copa do Catar, estreava um programa que logo foi considerado um passo adiante no progresso da inteligência artificial: o ChatGPT.
Mas as consequências para a humanidade de seu uso em larga escala ainda precisam ser totalmente compreendidas.
O salto evolutivo desse novo sistema está no poder de gerar conteúdo de forma bastante coerente e também por conseguir “soar mais humano”.
Apesar de erros e falhas ainda existentes, a capacidade já demonstrada pelo programa — e seu potencial de se desenvolver ainda mais a longo prazo — vem provocando não só admiração, mas também alguns temores.
Basta observar a quantidade de análises que associam o ChatGPT à palavra “ameaça”. Muitos acham que o programa parece convincente demais ao mimetizar o discurso de um ser humano e anteveem problemas.
São questionamentos sobre a possibilidade de forte ruptura em áreas como criatividade humana, aprendizado e educação, trabalho, segurança digital e a própria democracia, como afirmou um artigo recente no jornal The New York Times.
Segundo os autores, o que antes era uma pessoa expressando sua opinião política agora pode ser apenas um robô que gera artificialmente um argumento.
O que é o programa?
O ChatGPT é, basicamente, um robô virtual (chatbot) que responde a perguntas variadas, realiza tarefas por escrito, conversa de maneira fluida e inclusive dá conselhos sobre problemas pessoais (embora haja a advertência de que não possui esse objetivo e que as orientações passadas são genéricas. Mas ele quase sempre responde ao usuário em busca de aconselhamento).
As possibilidades de geração de conteúdo são imensas.
Ele pode, por exemplo, ensinar a preparar um estrogonofe — e com um toque diferente na receita, se você especificar —, dar dicas para conseguir uma vaga de trabalho, escrever poesia, trabalhos acadêmicos ou um modelo de procuração judicial e também redigir uma carta de reconciliação para um amigo de quem você se distanciou.
O ChatGPT atende em questão de segundos um pedido aleatório como “escreva um poema sobre inteligência artificial no estilo de Carlos Drummond de Andrade” — a qualidade do resultado, a depender do crítico, pode ser bastante discutível.
Segundo testes do site SEO.ai, o ChatGPT está disponível em quase 100 línguas (incluindo português do Brasil), mas a performance do modelo varia conforme o idioma (funciona melhor em inglês).
O sistema foi desenvolvido pela OpenAI, empresa fundada em 2015 nos EUA por Sam Altman (hoje sua principal figura) e pelo onipresente Elon Musk (que se desligou dela em 2018 por considerar que havia conflito de interesse com o seu principal empreendimento, a companhia automotiva Tesla).
Cinco dias após seu lançamento, o ChatGPT chegou a mais de 1 milhão de usuários. Essas interações estão sendo utilizadas para treinar e desenvolver o modelo.
A OpenAI diz que o uso será gratuito e aberto a todos (apesar de, ironicamente, você precisar provar que é humano para se logar) durante essa etapa de “teste e pesquisa” — levando especialistas a especular sobre futuros tipos de monetização da ferramenta.
A companhia também adverte que, nesse período, o software “pode ocasionalmente gerar informações incorretas ou enganosas” e que seu histórico de dados está limitado a 2021.
Apesar de ter sido apontado como uma possível ameaça à hegemonia do Google como facilitador de informações na internet, o sistema ainda comete erros crassos, como dizer que o Brasil já ganhou ao menos cinco prêmios no Oscar (na verdade, o país nunca levou uma estatueta).
Por que o ChatGPT é considerado um avanço para a IA?
Programas poderosos de inteligência artificial baseados em texto funcionam armazenando quantidades gigantescas de dados (com ênfase em palavras e conversas nesse caso) e com algoritmos para prever o melhor encadeamento de uma frase. São chamados de grandes modelos de linguagem (LLM, na sigla em inglês).
O professor da Unifesp Álvaro Machado Dias, futurista e neurocientista, explica que no treinamento de um software são feitas “perguntas para o chatbot como ‘o que é um cilindro?’ e técnicos elaboram as próprias respostas. Caso a resposta do chatbot não seja correta, são inseridas as corretas no sistema para ensiná-lo. Isso é repassado para outras situações automaticamente”.
Apesar de já usarem uma modalidade que consegue depreender o contexto de uso das palavras, permitindo textos mais bem concatenados, programas anteriores não respondiam tão bem ao usuário ou ainda soavam muito artificiais. O ChatGPT aprendeu a conversar de uma forma mais próxima de um humano.
Machado Dias diz que o diferencial desse programa é o emprego de uma técnica que entende como a linguagem funciona: o reforço de aprendizado por feedback humano (RLHF, na sigla em inglês).
Engenheiros aplicam métodos de “recompensa” e “punição” para ensinar ao sistema as formas mais desejáveis de interação. É um processo de sintonia fina.
“Na prática, os engenheiros ordenam as respostas dadas pelo algoritmo de acordo com a sua relevância e estimulam o programa a aprender as preferências listadas na ordenação para aumentar a relevância das produções textuais. O resultado é dado na forma de textos que parecem mais profundos e significativos do que os das alternativas”, diz o professor da Unifesp.
O ChatGPT foi também treinado para admitir erros, contestar premissas incorretas e rejeitar pedidos inapropriados.
Mas um professor da Universidade da Califórnia conseguiu que o sistema escrevesse um código de programação para dizer que apenas homens brancos ou asiáticos formam bons cientistas.
A OpenAI afirma que embora tenha feito esforços nesse sentido, o programa “às vezes vai responder a instruções problemáticas ou exibir comportamento enviesado”.
Segundo a empresa, os dados coletados nessa etapa de testes vão servir para melhorar o sistema.
É uma ameaça ao aprendizado e à criatividade?
A ameaça de disrupção já paira sobre trabalho e emprego. Campos que dependem do texto, como o jornalismo, poderão ser largamente modificados — e vagas poderão sumir para sempre.
A competência do ChatGPT em gerar códigos também já provoca questionamentos em um setor relativamente novo, a programação.
Mas uma das áreas que vem percebendo desde já o potencial de problemas do ChatGPT é justamente uma das mais afetadas pela chegada de novas tecnologias: a educação.
A tentação entre estudantes de usar o programa para encontrar respostas prontas para suas tarefas levou Nova York a tomar uma decisão rápida: apenas um mês após sua estreia, o sistema foi proibido nas escolas e dispositivos da rede pública da cidade americana.
A OpenAI vem trabalhando em uma espécie de marca d’água digital que identifique que o conteúdo foi originado no ChatGPT. Já existem algoritmos que calculam com boa precisão a probabilidade de um texto ter sido feito por um chatbot.
Além do “copiar e colar”, há o temor de impactos estruturais no aprendizado humano. Por exemplo, o exercício cognitivo de escrever uma redação com começo, meio e fim, concatenando ideias de forma coesa, será afetado?
“Ando bastante preocupado com a algoritmização do pensamento, que é a alteração do nosso entendimento e relacionamento com o mundo em função da interação com a IA”, diz Machado Dias, da Unifesp.
“Acredito que esta será a maior mudança de mentalidade de toda a história moderna. Vale notar que o cérebro humano vem reduzindo lentamente de tamanho, em função do desenvolvimento tecnológico, há mais de mil anos. Este processo deve se acelerar. Assim, iremos nos tornar cada vez mais sofisticados do ponto de vista técnico-cultural, mas também mais limitados do ponto de vista neurocognitivo.”
Martha Gabriel, autora do livro Inteligência Artificial: do Zero ao Metaverso e professora da PUC-RS e SP, afirma que será necessário se adaptar aos novos tempos:
“Quando uma tecnologia passa a fazer algo melhor que um humano, não adianta querer concorrer com ela nisso. A partir desse momento, as habilidades humanas que passam a ter valor são: saber usar aquela tecnologia no seu máximo potencial e fazer aquilo que a tecnologia não faz”.
“O que faz a diferença nesse contexto não são mais as respostas, mas as perguntas. Tem que saber perguntar. Para saber perguntar tem que saber pensar criticamente”, diz.
Para Yuri Lima, pesquisador do Laboratório do Futuro da Universidade Federal do Rio de Janeiro (UFRJ), “o próprio ensino precisa ser adaptado para estimular a aprendizagem que reconheça os alunos como ciborgues cada vez mais integrados às novas tecnologias”.
“Isso exige que os professores também saibam utilizar essas mesmas tecnologias e integrá-las nas suas atividades. A partir do momento em que os projetos, atividades e deveres de casa se tornarem mais complexos e integrados ao universo atual no qual os alunos existem, a motivação deixa de ser afetada por essa questão tecnológica.”
Outra questão gira em torno do futuro da criatividade humana e da produção de conteúdo que não seja baseada em inteligência artificial.
Dez dias depois da chegada do sistema da OpenAI, um designer em San Francisco (EUA) conseguiu criar em apenas um fim de semana um livro infantil com texto e ilustrações feitos com ChatGPT e MidJourney, um programa que produz imagens ao fornecer descrições.
“Um ponto importante ainda a ser tratado é a questão do plágio. A partir do momento em que o treinamento de modelos como o ChatGPT se baseia em textos disponíveis na internet como notícias, livros e blogs, as suas respostas podem trazer ideias publicadas por certas pessoas sem que essas recebam crédito por isso”, afirma Lima.
“Em áreas criativas, esse reconhecimento dos autores é considerado importante. Além disso, não conhecer as fontes dificulta o reconhecimento de vieses ou até mesmo de mentiras, como em notícias falsas.”
Machado Dias aponta que “a criatividade emerge de combinações simultaneamente insólitas e relevantes. Como algoritmos são dispositivos de geração de combinações, é esperado que o impulso criativo seja dirimido”.
“Por outro lado, conforme algoritmos desempenham suas tarefas, tendem a gerar padrões que sequer imaginávamos como possíveis, expandindo nosso entendimento combinatório, ou seja, nossa criatividade.”
Martha Gabriel vai em uma linha semelhante: “A tecnologia pode ser uma ferramenta incrível para amplificar o nosso pensamento, pois conseguimos em pouco tempo testar inúmeras hipóteses, formatos, soluções para refinar nossas hipóteses e melhorar nossas perguntas”.
“No entanto, isso pode também ser uma ameaça muito grande para aqueles que usam esses sistemas cegamente, sem crítica ou questionamentos de moral e ética. Isso não é apenas um risco individual, mas para toda a humanidade.”
Você precisa fazer login para comentar.