- Author, Alex Christian
- Role, BBC Worklife
Desde que a OpenAI lançou o ChatGPT, um robô virtual (chatbot) que responde a perguntas variadas, em novembro de 2022, empresas têm se esforçado para manter o uso da ferramenta sob controle no ambiente de trabalho.
Muitas companhias estão preocupadas com o vazamento de seus dados – não apenas treinando involuntariamente algoritmos da OpenAI com informações confidenciais, mas também potencialmente revelando segredos corporativos às solicitações dos concorrentes, diz Simon Johnson, chefe do grupo de economia global e gestão da MIT Sloan School of Management, em Massachusetts, nos Estados Unidos.
“Essas são ferramentas práticas que facilitam a vida, como a agregação de conteúdo. Em vez de procurar em diversas fontes para encontrar uma política organizacional obscura, o ChatGPT pode fornecer um primeiro rascunho útil em instantes”, diz Bryan Hancock, sócio da McKinsey & Co, com sede em Washington.
“Eles também podem ajudar em tarefas técnicas, como codificação, e realizar tarefas rotineiras que aliviam a carga cognitiva e os horários dos funcionários”.
O consultor de negócios Matt e seu colega foram os primeiros em seu local de trabalho a descobrir o ChatGPT, poucas semanas após seu lançamento. Ele diz que o chatbot transformou seus dias de trabalho da noite para o dia. “Foi como descobrir um truque de videogame”, diz Matt, que vive em Berlim.
“Fiz uma pergunta realmente técnica da minha tese de doutorado e ele forneceu uma resposta que ninguém seria capaz de encontrar sem consultar pessoas com conhecimentos muito específicos. Eu sabia que seria uma virada de jogo.”
As tarefas diárias em seu ambiente de trabalho acelerado – como pesquisar temas científicos, reunir fontes e produzir apresentações completas para clientes – de repente se tornaram muito fáceis.
O único problema: Matt e seu colega tiveram que manter o uso do ChatGPT em segredo bem guardado. Eles acessaram a ferramenta secretamente, principalmente em dias de trabalho em casa.
“Tínhamos uma vantagem competitiva significativa em relação aos nossos colegas – nossa produção era muito mais rápida e eles não conseguiam compreender como. Nosso gerente ficou muito impressionado e falou sobre nosso desempenho com a alta administração”, diz.
Quer a tecnologia seja explicitamente proibida, altamente desaprovada ou dê a alguns trabalhadores uma vantagem secreta, alguns funcionários estão procurando maneiras de continuar usando ferramentas de IA generativas de forma discreta.
A tecnologia está se tornando cada vez mais um canal de retorno para os funcionários: em um estudo de fevereiro de 2023 realizado pela rede social profissional Fishbowl, 68% dos 5.067 entrevistados que usaram IA no trabalho disseram que não divulgam o uso aos seus chefes.
Mesmo em casos sem proibições no local de trabalho, os funcionários ainda podem querer manter o uso da IA oculto, ou pelo menos protegido, dos colegas.
“Ainda não temos normas estabelecidas em torno da IA – inicialmente, pode parecer que você está admitindo que não é tão bom no seu trabalho se a máquina estiver executando muitas de suas tarefas”, diz Johnson. “É natural que as pessoas queiram esconder isso.”
Como resultado, estão surgindo fóruns para os trabalhadores trocarem estratégias para se manterem discretos.
Em comunidades como o Reddit, muitas pessoas buscam métodos para contornar secretamente as proibições no local de trabalho, seja por meio de soluções de alta tecnologia (integrando o ChatGPT em um aplicativo disfarçado como uma ferramenta de local de trabalho) ou soluções rudimentares para obscurecer o uso (adicionando uma tela de privacidade ou acessando discretamente a tecnologia pelo celular).
E um número crescente de trabalhadores que passaram a depender da IA poderá ter de começar a procurar formas de manter o uso. De acordo com uma pesquisa da BlackBerry de agosto de 2023 com 2.000 tomadores de decisão globais de tecnologia da informação, 75% estão atualmente considerando ou implementando proibições do ChatGPT e de outros aplicativos generativos de IA no local de trabalho, com 61% afirmando que as medidas devem ser de longo prazo ou permanentes.
Embora estas proibições possam ajudar as empresas a manter informações sensíveis fora do alcance de mãos erradas, Hancock diz que manter a IA generativa longe dos trabalhadores, especialmente a longo prazo, pode sair pela culatra.
“As ferramentas de IA estão preparadas para se tornarem parte da experiência dos funcionários, portanto, restringir o acesso a elas sem fornecer uma visão de quando e como serão adotadas – como após a introdução de barreiras de proteção – pode criar frustração”, diz ele.
“E isso pode levar as pessoas a pensar em trabalhar em algum lugar com acesso às ferramentas de que precisam”.
Quanto a Matt, ele encontrou uma solução alternativa para se manter um passo à frente: ele e seu colega começaram a usar secretamente a plataforma de busca Perplexity.
Assim como o ChatGPT, é uma ferramenta generativa de IA que retorna respostas escritas complexas a solicitações básicas em um instante.
Matt gosta ainda mais do Perplexity do que do ChatGPT: ele apresenta informações em tempo real e cita fontes que podem ser verificadas rapidamente, ideal quando suas apresentações exigem conhecimento aprofundado e atualizado.
Ele o consulta centenas de vezes por dia em seu laptop de trabalho, muitas vezes quando está em home office, e o usa mais do que o Google.
Matt espera poder continuar usando sua mais recente ferramenta de IA em segredo, pelo maior tempo possível.
Para ele, vale a pena a pequena inconveniência de ocasionalmente ter que diminuir a intensidade da tela do laptop no escritório – e não compartilhar recursos com sua equipe. “Prefiro manter a vantagem competitiva”, diz ele.
Fonte: BBC
Você precisa fazer login para comentar.