segunda-feira, 29 de janeiro de 2024

A alucinação colectiva da IA (1)

© Collins Dictionary
Notas prévias: este artigo foi escrito por pessoas e só recorri a uma ferramenta de IA para a sua elaboração (Google Translate), mas sempre sujeito à minha revisão posterior; o post foi dividido em duas partes para facilitar a leitura – a 2ª parte está aqui.

(…) hallucinate seems fitting for a time in history in which new technologies can feel like the stuff of dreams or fiction—especially when they produce fictions of their own. Editorial do Cambridge Dictionary sobre a ‘Palavra do Ano 2023’

“AI” is best understood as a political and social ideology rather than as a basket of algorithms. (…) the AI way of thinking can distract from the responsibility of humans. Jaron Lanier e Glen Weyl (daqui)

A Inteligência Artificial (IA) é um dos ‘hypes’ do momento e foi eleita palavra do ano pelo dicionário inglês Collins (ver aqui). Na sequência do encantamento público e mediático das últimas décadas pelas tecnologias digitais e pela chamada 4ª Revolução Industrial (ver p.ex. aqui ou aqui), a IA surge agora envolta num misto de fascínio e de preocupação, em particular devido às façanhas, mas também aos desvarios, de uma das aplicações mais populares da chamada IA generativa – os ‘chatbots’, como o ChatGPT. Essa é aliás a principal razão para a escolha dos editores do Collins: a rapidez estonteante da evolução da capacidade de reprodução da linguagem humana pelas novas ferramentas de IA e a explosão de discussões, escrutínio e especulação que têm gerado (ver aqui). As promessas de inovação, de ‘disrupção’ ou de bem-estar que a 4ª Revolução Industrial, a IA ou o ChatGPT alegadamente trarão ao mundo têm vindo a ser empoladas por personalidades mediáticas como Bill Gates (ver aqui) ou Klaus Schwab (ver aqui), mas são também apregoadas entusiasticamente ad nauseam pela generalidade dos media. Os editores do dicionário online ‘Dictionary.com’, que elegeu um outro termo relacionado com IA – ‘hallucinate’ (alucinar) – como palavra do ano (ver adiante), defendem que “A IA mudará para sempre a forma como trabalhamos, aprendemos, criamos, interagimos com a (des)informação e pensamos sobre nós próprios”. 

Notícias sobre as mais variadas aplicações da IA e os seus alegados benefícios ou limitações, surgem quase diariamente; seguem-se alguns exemplos dessas aplicações em diferentes sectores: biodiversidade (aqui), gastronomia (aqui ou aqui), imobiliário (aqui), artes (aqui), media/jornalismo (aqui ou aqui), religião (aqui ou aqui). Não admira pois que as expectativas sobre as capacidades e façanhas da IA sejam tão elevadas – como afirma ironicamente a jornalista e escritora canadiana Naomi Klein num artigo de opinião ("As máquinas de IA não estão a 'alucinar'. Os seus criadores, sim") em que desconstrói as principais promessas falaciosas das grandes corporações tecnológicas: “A IA generativa acabará com a pobreza, dizem eles. Vai curar todas as doenças. Vai resolver as alterações climáticas. Isso tornará o nosso trabalho mais significativo e emocionante. Irá desencadear vidas de lazer e contemplação, ajudando-nos a recuperar a humanidade que perdemos para a mecanização do capitalismo tardio. Vai acabar com a solidão. Isso tornará os nossos governos racionais e responsivos.”


No entanto, os mesmos media que anunciam cada nova façanha da IA (muitas vezes acriticamente), têm vindo também a alertar (ou a fomentar alarmismo…) para os riscos existenciais para a humanidade – numa actualização da ameaça mais antiga de que computadores ou robots super-inteligentes e potentes iriam exterminar os seus criadores humanos (ver p.ex. aqui). Isto aconteceu nomeadamente após diversos apelos ou avisos durante o ano de 2023 onde académicos, especialistas ou empresários envolvidos no desenvolvimento de sistemas de IA expressaram as suas inquietações – ver aqui, aqui ou aqui. A primeira declaração, do ‘Center for AI Safety’, subscrita por nomes sonantes das empresas de Silicon Valley (BigTech), mas também por académicos de áreas diversas, consiste numa única frase: “Mitigar o risco existencial de extinção proveniente da IA deve ser uma prioridade global, juntamente com outros riscos à escala da sociedade, como pandemias e guerra nuclear.” A segunda é uma carta aberta do ‘Future of Life Institute’, subscrita também por muitos nomes sonantes das BigTech, apelando a uma moratória no desenvolvimento da IA. A juntar ao tom dramático e abrangência dos riscos apontados naquelas declarações, alguns dos perigos ou impactos negativos que têm vindo a ser identificados prendem-se com questões mais específicas como o trabalho (aqui ou aqui), a literacia digital (aqui), o plágio/autoria (aqui), a proteção de privacidade (aqui) ou a desigualdade económica (aqui), tendo desencadeado múltiplos apelos de regulação das empresas que desenvolvem sistemas de IA e de adopção de princípios éticos (ver p.ex. as declarações mencionadas acima ou o artigo de N. Klein já citado). No entanto, os aspectos considerados mais graves pelos especialistas e que têm causado maior consternação e acesas polémicas na opinião pública são: a IA irá tornar-se autónoma e destruirá os seus criadores (p.ex. por considerá-los supérfluos); a IA tornar-se-á mais inteligente do que os seus criadores e/ou irá tornar-se auto-consciente; a IA vai substituir o trabalho humano e vai provocar desemprego em massa – ver p.ex. artigos de Jeremy Lent (aqui), Richard Heinberg (aqui) ou Émile P. Torres (aqui), que serão citados adiante. Há quem considere estes perigos reais e esteja muito assustado (incluindo muitos especialistas da área), mas há também quem os considere uma sobrestimação grosseira da capacidade dos sistemas de IA. Talvez possamos dormir mais descansados sabendo que os especialistas da área estão atentos e até fundaram ‘think-tanks’ e parcerias para lidar com os riscos existenciais das novas tecnologias digitais, como os já referidos ‘Center for AI Safety’ e ‘Future of Life Institute’ ou ainda a ‘Partnership on AI to Benefit People and Society’. Ou talvez não!...


Irei aqui cobrir algumas das reflexões críticas que tenho vindo a respigar, versando diversas das ameaças ou riscos igualmente sérios mas menos falados da IA, como sejam as evidentes limitações das suas capacidades, os seus impactos ambientais (consumo de energia e recursos) e sociais (aumento das desigualdades) negativos, o uso abusivo de dados e de propriedade intelectual, ou a exacerbação do poder corporativo.


Começo com a referência a um outro termo - ‘alucinar’ -, eleito igualmente como palavra do ano, desta feita pelo (respeitável) dicionário Cambridge (ver aqui ou aqui), assim como pelo Dictionary.com (ver aqui). Na sua acepção habitual, alucinação refere-se a um distúrbio do foro psicológico ou a uma experiência mística ou psicadélica, que leva uma pessoa a ver ou ouvir algo que não existe na realidade, mas, no contexto da IA, designa uma anomalia nos resultados produzidos pelas ferramentas de IA generativa (os ‘chatbots’, mas também os geradores de imagem, como o Dall-E) que originam textos ou imagens falsos, completamente inventados ou bizarramente distorcidos, mas muitas vezes verosímeis - ver p.ex. aqui ou aqui. O editorial do dicionário Cambridge sobre a sua escolha de palavra do ano adverte: “Os modelos de linguagem [‘large language models’-LLMs] são tão confiáveis quanto as informações com as quais os seus algoritmos aprendem. A experiência humana é indiscutivelmente mais importante do que nunca para criar informações confiáveis e atualizadas com as quais os LLMs possam ser treinados”. Uma das críticas ao uso do termo alucinação no contexto da IA é a de que antropomorfiza uma máquina atribuindo-lhe qualidades humanas; a outra é a de que eufemiza ou trivializa um erro dos algoritmos informáticos – como defendem Naomi Klein (aqui) ou Benj Edwards em artigo para o site Ars Technica (ver também artigo do site da Universidade de Cambridge já citado). Edwards alega que o recurso ao termo alucinar “antropomorfiza os modelos de IA (sugerindo que eles têm características semelhantes às humanas) ou confere-lhes agência (sugerindo que podem fazer as suas próprias escolhas) em situações em que isso não deveria estar implícito. Os criadores de LLMs comerciais também podem usar alucinações como pretexto para culpar o modelo de IA por resultados erróneos, em vez de assumirem a responsabilidade pelos próprios resultados.” Edwards prefere o uso do termo ‘confabulação’ para descrever as disfuncionalidades dos modelos de IA que criam histórias fantasiosas como se fossem verdadeiras: “(…) embora igualmente imperfeita, é uma metáfora melhor do que alucinação. Na psicologia humana, uma confabulação ocorre quando a memória de alguém apresenta uma lacuna e o cérebro preenche-a de forma convincente, sem a intenção de enganar os outros. O ChatGPT não funciona como o cérebro humano, mas o termo confabulação serve como uma metáfora melhor porque há um princípio criativo de preenchimento de lacunas em ação…”.


Diversos autores têm vindo a desconstruir a mitificação e as promessas fantasiosas da IA (que Naomi Klein apelida de verdadeiras alucinações), chamando a atenção para os custos e as ameaças bem reais que a IA representa. Segue-se uma lista de autores e fontes que irei citar: Jaron Lanier (aqui e aqui), Miguel Nicolelis (aqui e aqui), Naomi Klein (tradução PT aqui; original aqui), Leif Weatherby (aqui), Jeremy Lent (aqui), Richard Heinberg (aqui), Émile P. Torres (aqui), James Bridle (aqui) e ainda o documentário ’The cost of AI’ do canal público holandês VPRO. Recomendo ainda a publicação ‘Amazing AI’ de Mary Louise Malig, disponível através do site Systemic Alternatives, onde a autora descreve alguns aspectos técnicos dos sistemas de IA no seu actual estado de desenvolvimento, para depois desconstruir alguns mitos mais comuns e revelar os seus impactos mais preocupantes, assim como mostrar possíveis vias de mitigação.

(continua)



Sem comentários:

Enviar um comentário