Quem tem medo da IA?

Sinopse: Neste texto eu exploro as semelhanças entre o ChatGPT e uma pessoa bem informada para discutir sobre as ameaças que a tecnologia de IA pode trazer à sociedade e as maneiras de enfrentá-las.

A popularidade recente e inesperada do “aplicativo” ChatGPT, da empresa OpenAI, tem provocado opiniões muito distintas acerca dos benefícios e perigos da tecnologia relacionada à inteligência artificial (IA). Enquanto uns enfatizam com entusiasmo a oportunidade de poder conversar com o algoritmo e receber dele informações objetivas como se estivesse conversando com um especialista, e imaginam o quanto essa capacidade poderá ser estendida com o aperfeiçoamento da tecnologia de IA, outros enfatizam os riscos de sermos levados a acreditar inadvertidamente em um algoritmo que toma como insumo um banco de dados não inteiramente confiável e imaginam o quão nefastas poderão ser as consequências de se confiar num algoritmo cada vez mais poderoso que venha a ser aprimorado pela IA.

Um algoritmo do tipo daquele utilizado pelo ChatGPT tem características que o aproximam de um indivíduo com uma capacidade gigantesca de absorção de informações e de expressar respostas coerentes quando perguntado sobre o que quer que esteja contido na fonte onde obteve as informações. Como acontece com um ser humano, cuja educação foi completada com informações ricas e pobres, boas e ruins, verdadeiras e falsas – dependendo das escolas ou grupos sociais de onde ele as recebeu -, assim também acontece com o algoritmo de IA que se baseia num banco de dados oriundo preponderantemente da internet (mídias sociais e outras fontes) que contêm informações legítimas e ilegítimas, sem uma indicação precisa de qual tipo se tratam. Destarte, se nem sempre podemos discernir sobre a veracidade daquilo que é dito pelo computador, também não podemos garantir que uma pessoa com quem conversamos diz a verdade e, por este prisma, o algoritmo não é, em princípio, menos confiável que uma pessoa.

Uma das preocupações com a IA – talvez a maior -, nessa fase em que estão sendo criados os algoritmos que processam a linguagem (os modelos amplos de linguagem – LLM), é a de que um algoritmo se torne uma espécie de líder virtual (um oráculo) no qual populações se baseiem para tomar as atitudes do dia-a-dia. Essa possibilidade não é desprezível e pode ser compreendida quando se analisa mais de perto a analogia entre o algoritmo e o ser humano, descrita acima. A “sabedoria” do algoritmo vem da absorção de um conjunto enorme de informações e da sua capacidade de formar frases coerentes em suas respostas às perguntas que recebe. O banco de dados que ele utiliza para formar as suas respostas é composto por tudo (ou quase tudo) que é postado na internet e pode conter informações falsas e até contraditórias, com as quais o algoritmo tem que lidar. Não é muito diferente do que acontece com o ser humano no processo de formação da sua qualificação e do seu caráter, quando é sabido que ele pode vir de boa ou má família, pode ter frequentado boas ou más escolas, pode interagir com boas ou más companhias ou participar de grupos sociais bem ou mal intencionados e tem que lidar com isso durante a sua vida. E tem ainda um aspecto curioso derivado da metodologia empregada por um algoritmo típico que processa linguagem. Explicando de uma forma simplista, tais algoritmos utilizam, na formação das sentenças, medidas estatísticas da frequência de ocorrência de cada palavra em trechos apropriados do banco de dados e as transformam em índices que determinam qual palavra deve ser usada na sequência da frase. Ainda que o algoritmo leve em conta critérios adicionais, não é difícil prever que no meio de tantas sentenças coerentes, ele pode, em algum momento, criar alguma sentença ambígua, ou falsa, ou inventada (não consistente com o banco de dados). Esse é um tipo de falha que os analistas chamam de “alucinação”, mas que se poderia chamar de “improvisação” ou “criatividade” do algoritmo, aprofundando a analogia com os seres humanos. Visto assim, o computador que utiliza um tal tipo de algoritmo pode ser equiparado a um indivíduo com uma memória privilegiada (muito culto) e uma capacidade de se expressar muito acima da média das pessoas, mas não mais do que isso: um indivíduo a mais na sociedade, sujeito a erros e acertos. Que mal poderia haver nisso? Esse “indivíduo” poderia vir a se tornar um líder mal-intencionado?

Para ajudar a responder a esta pergunta é útil relembrar o processo pelo qual um líder é reconhecido. Uma pessoa que dá opinião convincente sobre assuntos importantes para a sociedade e, por isso, é consultada e reverenciada por um número muito grande de indivíduos, tem as características de um líder em potencial. Se, além dessa capacidade, ele ainda demonstrar por atos que é capaz de levar adiante grandes ideias, então se tornará um líder verdadeiro. Quando isso acontece, tudo o que essa pessoa vier a dizer ou praticar pode ser entendido pelos seus seguidores, quase sempre sem qualquer questionamento, como a melhor coisa a ser feita. Foi assim que se criaram líderes que determinaram o rumo, para o bem ou para o mal, de culturas, países, religiões. E as perguntas estão de volta: Uma máquina poderá vir a ser um líder? E se a resposta for afirmativa, isso será um risco para a sociedade?

É difícil saber qual será o futuro desses algoritmos de linguagem, se poderão ou não se tornar figuras comparáveis aos líderes do presente e do passado, mas com a perspectiva de trazer benefícios e riscos em uma escala muito superior. A transformação do algoritmo em um verdadeiro líder virtual parece ser uma coisa de ficção científica, mas um aspecto parece indiscutível: eles (algoritmos) podem facilmente se transformar em formadores de opinião e isso pode acontecer se muitos usuários depositarem total confiança em suas respostas e empatia com as “suas ideias”, um processo que já se encontra em andamento. Todavia, se o problema mais urgente for esse, como pretendem aqueles que sugerem a paralisação das pesquisas por um tempo, acho que qualquer medida para impedir isso será inócua, visto que as redes sociais já tomaram para si essa incumbência de revelar formadores de opinião. E não podemos deixar de considerar o fato de que, sem redes sociais e sem IA, já nos enganamos com muitos líderes no passado.

A história mostra que temos sempre que ter extremo cuidado ao escolher um líder e, dada a semelhança entre líderes naturais e virtuais, talvez, possamos utilizar critérios semelhantes para lidar com o aprimoramento dos algoritmos do tipo daqueles aqui tratados. Em primeiro lugar, assim como um líder natural, o algoritmo não pode ser considerado infalível. Aqui, a expressão “errar é humano” deve igualmente se aplicar a qualquer algoritmo que tenha a característica que é fundamental para o ChatGPT, isto é, basear-se em uma técnica estatística de exploração de um banco de dados criado com informações que não são todas verificáveis quanto à sua veracidade. Em segundo lugar, há que se estimular a concorrência entre algoritmos para que se possa ter uma segunda opinião sobre qualquer assunto tratado, o que estimularia o aperfeiçoamento dos algoritmos e a consequente diminuição de falhas em sua comunicação com os humanos. Além disso, há que se ter uma legislação para impor restrições sobre a atuação dos algoritmos e punir judicialmente a empresa responsável pelo algoritmo em casos de eventuais transgressões a essas restrições. Ainda assim não estaremos livres de ser cooptados por eles, assim como também nunca estivemos livres de cooptação por parte das grandes corporações que existem desde muito antes do advento da IA. Como sempre, aqui também a solução é ter uma população bem educada capaz de enfrentar as ameaças de uma enxurrada de propaganda, notícias falsas e informações mal-intencionadas, mas …  e se a IA assumir, também, a nossa educação?

Um comentário sobre “Quem tem medo da IA?

Deixe um comentário