segunda-feira, 29 de janeiro de 2024

A alucinação colectiva da IA (2)

Nota: a 1ª parte deste post encontra-se aqui.

AI turns out not to be a divine machine, but an industry that takes blood, sweat and metals. A system of extraction and exploitation on an industrial scale with dire consequences for the earth and humans. Documentário ‘The cost of AI’ (VPRO, 2023)

AI image and text generation is pure primitive accumulation: expropriation of labour from the many for the enrichment and advancement of a few Silicon Valley technology companies and their billionaire owners. James Bridle (daqui)

Can we imagine powerful information sorting and communicating technologies that don’t exploit, misuse, mislead and supplant us? Yes, we can – once we step outside the corporate power networks that have come to define the current wave of AI. James Bridle (daqui)

Um primeiro aspecto que alguns destes autores questionam é o próprio uso da palavra ‘inteligência’ no contexto destas ferramentas computacionais. O cientista informático e músico norte-americano Jaron Lanier alerta (em ‘There is no AI’) para os equívocos em volta do termo ‘IA’, que considera enganoso: “A posição mais pragmática é pensar na IA como uma ferramenta, não como uma ‘criatura’. Esta minha atitude não elimina a existência de perigos: independentemente da nossa abordagem, podemos de facto conceber e operar mal a nossa nova tecnologia, de formas que nos podem prejudicar ou mesmo levar à nossa extinção. Mitologizar a tecnologia apenas aumenta a probabilidade de não conseguirmos operá-la bem – e este tipo de pensamento limita a nossa imaginação, ligando-a aos sonhos do passado. Podemos trabalhar melhor partindo do pressuposto de que IA é algo que não existe. Quanto mais cedo compreendermos isto, mais cedo começaremos a gerir a nossa nova tecnologia de forma inteligente.” Lanier prefere ver a IA como uma forma de colaboração social entre seres humanos e máquinas: “Encarar a IA como uma forma de trabalhar em conjunto, e não como uma tecnologia para criar seres independentes e inteligentes, pode torná-la menos misteriosa (…) Mas isso é bom, porque o mistério só aumenta a probabilidade de má gestão.” Já o médico e cientista brasileiro Miguel Nicolelis afirma (numa entrevista) que: “A inteligência é algo restrito aos organismos porque ela é uma propriedade emergente da interação de seres vivos com o seu ambiente. A inteligência resulta no processo de seleção natural, é a forma pela qual os organismos conseguem sobreviver às vicissitudes de um ambiente em contínua modificação (…) O termo inteligência é inapropriado [para] os sistemas computacionais porque eles não preenchem a definição clássica de inteligência (…) E ela não é artificial porque ela é criada por seres humanos, ela não vem do nada, não cai do céu. A inteligência que existe nessa área é a inteligência dos programadores e das pessoas que geram esses sistemas”. Nicolelis vaticina ainda que: “O ChatGPT vai ter uma morte tão rápida quanto ele teve de subida. Todos esses sistemas são movidos a hype e a marketing”. Por seu lado, o artista e escritor britânico James Bridle, que também defende que a inteligência é uma característica dos sistemas vivos e o termo não devia ser usado no contexto da IA, escreve (em ‘The stupidity of AI’) acerca do ChatGPT: “É muito bom a produzir o que parece fazer sentido e, melhor ainda, a produzir clichés e banalidades, que compõem a maior parte da sua dieta, mas permanece incapaz de se relacionar de forma significativa com o mundo real. (…) A crença neste tipo de IA como realmente inteligente ou relevante é efectivamente perigosa. Corre o risco de contaminar a nossa fonte de pensamento colectivo e a nossa capacidade de pensar. (…) Colocar toda a nossa confiança nos sonhos de máquinas mal programadas seria abandonar a nossa capacidade como indivíduos de pesquisar e avaliar criticamente o conhecimento por nós próprios. (…) É difícil pensar em algo mais estúpido do que a inteligência artificial, tal como é praticada na era atual: (…) poderosa tecnologia de classificação e comunicação de informações que nos explora, nos usa indevidamente, nos engana e nos suplanta.” Sobre a diferença entre os actuais desenvolvimentos da IA e os sistemas computacionais rudimentares, Bridle escreve: “As primeiras IAs não sabiam muito sobre o mundo e os departamentos académicos não tinham o poder computacional para explorá-las em grande escala. A diferença hoje não é inteligência, mas sim dados e o poder. As grandes empresas tecnológicas passaram 20 anos a recolher grandes quantidades de dados da cultura e da vida quotidiana e a construir centros de processamento vastos e ávidos de energia, cheios de computadores cada vez mais potentes para os processar.” Bridle alerta ainda para as diferenças entre os sistemas de IA e a inteligência humana: “Não podemos perscrutar os seus processos de tomada de decisão porque a forma como estas redes neuronais ‘pensam’ é inerentemente desumana. É o produto de uma ordenação matemática incrivelmente complexa do mundo, em oposição à forma histórica e emocional como os humanos ordenam o seu pensamento.


Lanier em conjunto com Glen Weyl, assim como o académico Leif Weatherby, destacam outro aspecto relevante: a IA não é uma mera ferramenta tecnológica neutra, mas é de facto uma poderosa ferramenta ideológica e cultural. Lanier e Weyl escrevem (em ‘AI is an Ideology, Not a Technology’): “A IA é melhor entendida como uma ideologia política e social e não como um conjunto de algoritmos. O cerne da ideologia é que um conjunto de tecnologias, concebido por uma pequena elite técnica, pode e deve tornar-se autónomo e eventualmente substituir, em vez de complementar, não apenas os seres humanos individuais, mas grande parte da humanidade. Dado que qualquer substituição deste tipo é uma miragem, esta ideologia tem fortes ressonâncias com outras ideologias históricas, como a tecnocracia e as formas de socialismo baseadas no planeamento central, que consideravam desejável ou inevitável a substituição da maior parte do julgamento/agência humana por sistemas criados por uma pequena elite técnica.” Por seu lado, Weatherby (em ‘O ChatGPT é uma máquina de ideologia’) alerta para a natureza do processamento de informação (modelos estatísticos de agregação de dados) pelos ‘chatbots’ que os torna veículos de ideologia: “os sistemas GPT, porque automatizam uma função muito próxima do nossa noção do que significa ser humano, podem produzir mudanças na própria forma como pensamos sobre as coisas. O controlo sobre a forma como pensamos sobre as coisas chama-se ‘ideologia’, e os sistemas de GPT envolvem-na direta e quantitativamente de uma forma sem precedentes.”


Um outro aspecto que é enfatizado, quer por Naomi Klein, quer por James Bridle, mas também no documentário da VPRO citado acima, é o carácter extractivista dos sistemas de IA, num contexto económico que privilegia o poder e a riqueza hiperconcentrados e que tem como objectivo a maximização do lucro e não o bem comum. Klein escreve: “Existe um mundo em que a IA generativa, como uma poderosa ferramenta de pesquisa preditiva e executora de tarefas entediantes, poderia, de facto, ser organizada para beneficiar a humanidade, as outras espécies e a nossa casa comum. Mas, para isso acontecer, essas tecnologias teriam de ser implantadas dentro de uma ordem económica e social muito diferente da nossa, que tivesse como propósito atender às necessidades humanas e proteger os sistemas planetários que sustentam toda a vida.” Sobre as promessas fantasiosas em relação às façanhas futuras da IA (que apelida de alucinações utópicas), Klein afirma: “são as histórias de capa poderosas e atraentes para o que pode vir a ser o maior e mais importante roubo da história da humanidade. Porque o que estamos a testemunhar são as empresas mais ricas da história (Microsoft, Apple, Google, Meta, Amazon …) a apoderar-se unilateralmente da soma total do conhecimento humano que existe em formato digital, na internet, e a capturá-la dentro de produtos privados, muitas vezes visando diretamente os humanos cuja vida inteira de trabalho serviu para treinar as máquinas sem que para tal fosse dada qualquer permissão ou consentimento.” E conclui: “aquilo que aconteceu com o exterior das nossas casas [por via do Google Street View] está a acontecer com as nossas palavras, as nossas imagens, as nossas músicas, toda a nossa vida digital. Todos estão a ser capturados e usados para treinar as máquinas para simular o pensamento e a criatividade.” Por seu lado, James Bridle escreve: “Todo o tipo de IA disponível publicamente, quer funcione com imagens ou palavras, (…) baseia-se nesta apropriação generalizada da cultura existente, cujo âmbito mal podemos compreender. (…) longe de serem criações mágicas e inovadoras de máquinas brilhantes, os resultados deste tipo de IA dependem inteiramente do trabalho não creditado e não remunerado de gerações de artistas humanos. A geração de imagens e textos por IA é pura acumulação primitiva: expropriação de mão-de-obra de muitos para o enriquecimento e avanço de algumas empresas tecnológicas de Silicon Valley e dos seus proprietários bilionários.” O documentário 'The cost of AI' (VPRO) destaca a dependência energética dos servidores de processamento de dados e mostra ainda a exploração dos trabalhadores de países do Sul global que são contratados para fazer a triagem de dados pelas empresas que desenvolvem sistemas de IA.


Em ‘AI and the threat of «human extinction»’ o filósofo e historiador norte-americano Émile P. Torres alerta para outra faceta preocupante do rápido desenvolvimento de sistemas de IA: a promoção da visão de mundo tecno-utópica dos (alucinados) trans-humanistas. De facto, Torres reconhece o risco existencial da IA se virar contra os seus criadores mas alerta para o facto de que, para muitos especialistas que professam as premissas do trans-humanismo, o mal que viria para a humanidade seria a impossibilidade de realização do seu verdadeiro potencial tecno-utópico e de expansão extraplanetária: “Trans-humanistas proeminentes sugerem que o fracasso na criação de uma nova espécie pós-humana seria uma enorme tragédia moral, uma vez que significaria que não conseguiríamos cumprir o nosso grande ‘potencial’ cósmico no universo.Os trans-humanistas vêem a natureza humana como um projecto em curso, em que os seres humanos podem ser melhorados e aperfeiçoados graças a várias tecnologias (biotecnologia, nanotecnologia e tecnologias digitais). Para eles a humanidade actual não é o ponto final da evolução e esperam que, através do uso responsável da ciência, da tecnologia e de outros meios racionais, nos conseguiremos eventualmente tornar pós-humanos, seres com capacidades muito maiores do que os actuais (e imperfeitos) Homo sapiens. Alguns trans-humanistas, como William MacAskill (autor de What We Owe the Future), chegam mesmo a sugerir que a nossa destruição do mundo natural pode na verdade ser positiva, o que aponta para uma questão mais ampla sobre se a vida biológica em geral - e não apenas o Homo sapiens em particular - tem algum lugar no futuro ‘utópico’ do trans-humanismo. Isto sim, parece-me uma verdadeira alucinação! Torres resume assim a visão trans-humanista: “no seu cerne está uma visão tecno-utópica do futuro em que reprojetamos a humanidade, colonizamos o espaço, saqueamos o cosmos e estabelecemos uma civilização intergaláctica em expansão, cheia de trilhões e trilhões de pessoas "felizes", quase todas elas "vivendo" dentro de enormes simulações de computador. No processo, todos os nossos problemas serão resolvidos e a vida eterna tornar-se-á uma possibilidade real.” Para Torres, os trans-humanistas estão, no entanto, presos numa ‘pescadinha-de-rabo-na-boca’ (‘catch-22’): “provavelmente precisaremos de construir uma AGI [sigla inglesa de Inteligência Artificial Geral] para criar a utopia, mas se nos apressarmos a construí-la sem as devidas precauções, tudo poderá explodir na nossa cara. É por isso que estão preocupados: só há um caminho a seguir, mas o caminho para o paraíso está minado.


No seu artigo de opinião para a revista Resilience ('If you're driving off a cliff, do you need a faster car?'), Richard Heinberg (membro-sénior do Post Carbon Institute) começa por referir-se aos riscos já identificados da IA (ou da AGI), assim como às declarações e avisos recentes dos empresários e especialistas das BigTech. Sem menosprezar algumas das preocupações veiculadas, Heinberg chama a atenção para outro perigo iminente: “Mesmo que (…) a IA não acabe com toda a vida na Terra, os seus perigos potenciais não se limitam a empregos perdidos, notícias falsas e factos alucinados. Há outro risco profundo que tem recebido pouca cobertura dos media – um risco que, na minha opinião, os pensadores sistémicos deveriam discutir mais amplamente. Essa é a probabilidade de que a IA seja um acelerador significativo de tudo o que nós, humanos, já fazemos.” Heinberg refere-se à chamada ‘Grande Aceleração’ da 2ª metade do século XX, correspondente ao maior crescimento económico e populacional de sempre, alavancada por diversos ‘aceleradores’, como os combustíveis fósseis, a ‘Revolução Verde’ na agricultura e os avanços nas tecnologias de informação. Embora economistas e governantes ortodoxos enalteçam estas façanhas, as ‘faturas’ desses alegados sucessos surgem agora para nos assombrar a todos: “A agricultura industrial está a destruir as camadas superficiais de solo fértil da Terra a uma taxa de dezenas de milhares de milhões de toneladas por ano. A natureza selvagem está em retração, tendo as espécies animais perdido, em média, 70% do seu número no último meio século. E estamos a alterar o clima planetário de formas que terão repercussões catastróficas para as gerações futuras. É difícil evitar a conclusão de que todo o empreendimento humano cresceu demasiado e que está a transformar a natureza (‘os recursos’) em desperdício e poluição demasiado rapidamente para se sustentar.” E a IA poderá ser afinal mais um novo ‘acelerador’ daquela destruição: “Esta tecnologia promete optimizar a eficiência e aumentar os lucros, facilitando direta ou indiretamente a extração e o consumo de recursos. Se realmente nos estivermos a dirigir para um precipício, a IA poderá levar-nos ao limite muito mais rapidamente, reduzindo o tempo disponível para mudar de direção.” Segundo Heinberg, a IA pode também ser um acelerador das nossas dependências das tecnologias digitais, provocando uma estupidificação acrescida das pessoas, assim como uma maior sujeição a quem controla aquelas tecnologias: “A IA (…) apresenta o risco de um maior embrutecimento da humanidade – exceto, talvez, para aqueles que optarem por implantar um computador nos seus cérebros. E há também o risco de que as pessoas que desenvolvem ou produzem estas tecnologias controlem praticamente tudo o que sabemos e pensamos, na busca do seu próprio poder e lucro.” Heinberg sugere que o que falta aos sistemas de IA é uma faceta-chave da consciência humana, a sabedoria (‘wisdom’), ou seja, “um reconhecimento dos limites, aliado a uma sensibilidade às relações e aos valores que priorizam o bem comum.” O perigo que daí advém é claro: “justamente no momento em que mais precisávamos de travar o uso de energia e o consumo de recursos, estamos a externalizar [‘outsource’] não apenas o processamento de informação, mas também a nossa tomada de decisões, em máquinas que carecem completamente de sabedoria para compreender e responder aos desafios existenciais que a aceleração apresenta. Criámos um verdadeiro ‘aprendiz de feiticeiro’.” Heinberg considera diferentes hipóteses de voltar a meter o génio na lâmpada de onde o deixámos sair – que vão desde desligar pura e simplesmente todos os sistemas de IA, a imbuir a IA da sabedoria que lhe falta. Mas em todas encontra limitações. Sugere então que a única saída será promover uma cultura de sabedoria colectiva enquanto ainda há tempo: “Ou recuperamos a sabedoria coletiva mais depressa do que as nossas máquinas conseguem desenvolver inteligência artificial executiva, ou provavelmente será o fim da partida [‘game over’].”


Num outro artigo de opinião ('To counter AI risk we must develop an integrated intelligence'), o autor britânico Jeremy Lent adopta uma postura semelhante à de Heinberg, considerando que existem diversos riscos associados ao desenvolvimento da IA, munida essencialmente de uma inteligência analítica, mas que o antídoto mais potente corresponde à capacidade integrativa da inteligência humana que permite estabelecer relações de empatia com as outras formas de vida e o ambiente: “O aumento explosivo do poder da IA representa um risco existencial para a humanidade. Para contrariar esse risco, e potencialmente redireccionar a trajectória da nossa civilização, precisamos de uma compreensão mais integrada da natureza da inteligência humana e dos requisitos fundamentais para o florescimento humano.” Lent defende que os sistemas de IA se baseiam essencialmente numa forma de inteligência analítica e racional que é boa a executar tarefas repetitivas e cálculos elaborados, mas que tende a transmitir uma imagem utilitarista e limitada do mundo. Pelo contrário, a inteligência humana integra duas formas complementares de consciência, uma mais racional (‘conceptual’) e outra mais sensível e intuitiva (‘animate’). Lent escreve: “a inteligência maquinal é na verdade puramente analítica. Não tem nenhuma estrutura que o ligue à vibrante senciência da vida. Independentemente do seu nível de sofisticação e potência, nada mais é do que um dispositivo de reconhecimento de padrões. Os teóricos da IA tendem a pensar na inteligência como independente do substrato – o que significa que o conjunto de padrões e ligações que a compõem poderia, em princípio, ser separado da sua base material e replicado exatamente noutro lugar, como quando se migram os dados de um computador antigo para um novo. Isso é verdade para a IA, mas não para a inteligência humana.”


Sem querer resumir todos os diferentes pontos de vista que partilhei até agora, poderia dizer que a IA é uma extensão de um paradigma social e cultural que acredita, quase cegamente, nas potencialidades da mente racional humana e na sua capacidade de criação de novas tecnologias benignas – uma versão depurada do excepcionalismo humano ou do antropocentrismo arrogante. Parece-me tratar-se mais de uma manifestação de entrega a uma certa estupidez natural (ou 'esperteza saloia') do que de verdadeira inteligência (artificial ou não). Desprovida principalmente da sabedoria a que se refere Heinberg ou da responsabilidade humana a que se referem Lanier e Weyl. Recupero as palavras de James Bridle que abrem este post: Podemos imaginar tecnologias poderosas de processamento e comunicação de informação que não nos explorem, não nos utilizem indevidamente, não nos enganem e não nos suplantem? Sim, podemos – assim que sairmos das redes de poder corporativo que definiram a atual onda de IA.. E concluo com as palavras que rematam o artigo de Jeremy Lent: “Diz-se por vezes que o que é necessário para unir a humanidade é uma flagrante ameaça comum, tal como uma hipotética espécie alienígena hostil que chega à Terra ameaçando-nos de extinção. Talvez esse momento esteja agora prestes a chegar – com uma inteligência alienígena emergindo das nossas próprias maquinações. Se houver esperança real para um futuro positivo, ela emergirá da nossa compreensão de que, como seres humanos, somos seres conceptuais e animados, e estamos profundamente conectados com toda a vida neste precioso planeta – e que coletivamente temos a capacidade de desenvolver uma civilização verdadeiramente integradora, que estabeleça as condições para que toda a vida floresça numa Terra regenerada.

A alucinação colectiva da IA (1)

© Collins Dictionary
Notas prévias: este artigo foi escrito por pessoas e só recorri a uma ferramenta de IA para a sua elaboração (Google Translate), mas sempre sujeito à minha revisão posterior; o post foi dividido em duas partes para facilitar a leitura – a 2ª parte está aqui.

(…) hallucinate seems fitting for a time in history in which new technologies can feel like the stuff of dreams or fiction—especially when they produce fictions of their own. Editorial do Cambridge Dictionary sobre a ‘Palavra do Ano 2023’

“AI” is best understood as a political and social ideology rather than as a basket of algorithms. (…) the AI way of thinking can distract from the responsibility of humans. Jaron Lanier e Glen Weyl (daqui)

A Inteligência Artificial (IA) é um dos ‘hypes’ do momento e foi eleita palavra do ano pelo dicionário inglês Collins (ver aqui). Na sequência do encantamento público e mediático das últimas décadas pelas tecnologias digitais e pela chamada 4ª Revolução Industrial (ver p.ex. aqui ou aqui), a IA surge agora envolta num misto de fascínio e de preocupação, em particular devido às façanhas, mas também aos desvarios, de uma das aplicações mais populares da chamada IA generativa – os ‘chatbots’, como o ChatGPT. Essa é aliás a principal razão para a escolha dos editores do Collins: a rapidez estonteante da evolução da capacidade de reprodução da linguagem humana pelas novas ferramentas de IA e a explosão de discussões, escrutínio e especulação que têm gerado (ver aqui). As promessas de inovação, de ‘disrupção’ ou de bem-estar que a 4ª Revolução Industrial, a IA ou o ChatGPT alegadamente trarão ao mundo têm vindo a ser empoladas por personalidades mediáticas como Bill Gates (ver aqui) ou Klaus Schwab (ver aqui), mas são também apregoadas entusiasticamente ad nauseam pela generalidade dos media. Os editores do dicionário online ‘Dictionary.com’, que elegeu um outro termo relacionado com IA – ‘hallucinate’ (alucinar) – como palavra do ano (ver adiante), defendem que “A IA mudará para sempre a forma como trabalhamos, aprendemos, criamos, interagimos com a (des)informação e pensamos sobre nós próprios”. 

Notícias sobre as mais variadas aplicações da IA e os seus alegados benefícios ou limitações, surgem quase diariamente; seguem-se alguns exemplos dessas aplicações em diferentes sectores: biodiversidade (aqui), gastronomia (aqui ou aqui), imobiliário (aqui), artes (aqui), media/jornalismo (aqui ou aqui), religião (aqui ou aqui). Não admira pois que as expectativas sobre as capacidades e façanhas da IA sejam tão elevadas – como afirma ironicamente a jornalista e escritora canadiana Naomi Klein num artigo de opinião ("As máquinas de IA não estão a 'alucinar'. Os seus criadores, sim") em que desconstrói as principais promessas falaciosas das grandes corporações tecnológicas: “A IA generativa acabará com a pobreza, dizem eles. Vai curar todas as doenças. Vai resolver as alterações climáticas. Isso tornará o nosso trabalho mais significativo e emocionante. Irá desencadear vidas de lazer e contemplação, ajudando-nos a recuperar a humanidade que perdemos para a mecanização do capitalismo tardio. Vai acabar com a solidão. Isso tornará os nossos governos racionais e responsivos.”


No entanto, os mesmos media que anunciam cada nova façanha da IA (muitas vezes acriticamente), têm vindo também a alertar (ou a fomentar alarmismo…) para os riscos existenciais para a humanidade – numa actualização da ameaça mais antiga de que computadores ou robots super-inteligentes e potentes iriam exterminar os seus criadores humanos (ver p.ex. aqui). Isto aconteceu nomeadamente após diversos apelos ou avisos durante o ano de 2023 onde académicos, especialistas ou empresários envolvidos no desenvolvimento de sistemas de IA expressaram as suas inquietações – ver aqui, aqui ou aqui. A primeira declaração, do ‘Center for AI Safety’, subscrita por nomes sonantes das empresas de Silicon Valley (BigTech), mas também por académicos de áreas diversas, consiste numa única frase: “Mitigar o risco existencial de extinção proveniente da IA deve ser uma prioridade global, juntamente com outros riscos à escala da sociedade, como pandemias e guerra nuclear.” A segunda é uma carta aberta do ‘Future of Life Institute’, subscrita também por muitos nomes sonantes das BigTech, apelando a uma moratória no desenvolvimento da IA. A juntar ao tom dramático e abrangência dos riscos apontados naquelas declarações, alguns dos perigos ou impactos negativos que têm vindo a ser identificados prendem-se com questões mais específicas como o trabalho (aqui ou aqui), a literacia digital (aqui), o plágio/autoria (aqui), a proteção de privacidade (aqui) ou a desigualdade económica (aqui), tendo desencadeado múltiplos apelos de regulação das empresas que desenvolvem sistemas de IA e de adopção de princípios éticos (ver p.ex. as declarações mencionadas acima ou o artigo de N. Klein já citado). No entanto, os aspectos considerados mais graves pelos especialistas e que têm causado maior consternação e acesas polémicas na opinião pública são: a IA irá tornar-se autónoma e destruirá os seus criadores (p.ex. por considerá-los supérfluos); a IA tornar-se-á mais inteligente do que os seus criadores e/ou irá tornar-se auto-consciente; a IA vai substituir o trabalho humano e vai provocar desemprego em massa – ver p.ex. artigos de Jeremy Lent (aqui), Richard Heinberg (aqui) ou Émile P. Torres (aqui), que serão citados adiante. Há quem considere estes perigos reais e esteja muito assustado (incluindo muitos especialistas da área), mas há também quem os considere uma sobrestimação grosseira da capacidade dos sistemas de IA. Talvez possamos dormir mais descansados sabendo que os especialistas da área estão atentos e até fundaram ‘think-tanks’ e parcerias para lidar com os riscos existenciais das novas tecnologias digitais, como os já referidos ‘Center for AI Safety’ e ‘Future of Life Institute’ ou ainda a ‘Partnership on AI to Benefit People and Society’. Ou talvez não!...


Irei aqui cobrir algumas das reflexões críticas que tenho vindo a respigar, versando diversas das ameaças ou riscos igualmente sérios mas menos falados da IA, como sejam as evidentes limitações das suas capacidades, os seus impactos ambientais (consumo de energia e recursos) e sociais (aumento das desigualdades) negativos, o uso abusivo de dados e de propriedade intelectual, ou a exacerbação do poder corporativo.


Começo com a referência a um outro termo - ‘alucinar’ -, eleito igualmente como palavra do ano, desta feita pelo (respeitável) dicionário Cambridge (ver aqui ou aqui), assim como pelo Dictionary.com (ver aqui). Na sua acepção habitual, alucinação refere-se a um distúrbio do foro psicológico ou a uma experiência mística ou psicadélica, que leva uma pessoa a ver ou ouvir algo que não existe na realidade, mas, no contexto da IA, designa uma anomalia nos resultados produzidos pelas ferramentas de IA generativa (os ‘chatbots’, mas também os geradores de imagem, como o Dall-E) que originam textos ou imagens falsos, completamente inventados ou bizarramente distorcidos, mas muitas vezes verosímeis - ver p.ex. aqui ou aqui. O editorial do dicionário Cambridge sobre a sua escolha de palavra do ano adverte: “Os modelos de linguagem [‘large language models’-LLMs] são tão confiáveis quanto as informações com as quais os seus algoritmos aprendem. A experiência humana é indiscutivelmente mais importante do que nunca para criar informações confiáveis e atualizadas com as quais os LLMs possam ser treinados”. Uma das críticas ao uso do termo alucinação no contexto da IA é a de que antropomorfiza uma máquina atribuindo-lhe qualidades humanas; a outra é a de que eufemiza ou trivializa um erro dos algoritmos informáticos – como defendem Naomi Klein (aqui) ou Benj Edwards em artigo para o site Ars Technica (ver também artigo do site da Universidade de Cambridge já citado). Edwards alega que o recurso ao termo alucinar “antropomorfiza os modelos de IA (sugerindo que eles têm características semelhantes às humanas) ou confere-lhes agência (sugerindo que podem fazer as suas próprias escolhas) em situações em que isso não deveria estar implícito. Os criadores de LLMs comerciais também podem usar alucinações como pretexto para culpar o modelo de IA por resultados erróneos, em vez de assumirem a responsabilidade pelos próprios resultados.” Edwards prefere o uso do termo ‘confabulação’ para descrever as disfuncionalidades dos modelos de IA que criam histórias fantasiosas como se fossem verdadeiras: “(…) embora igualmente imperfeita, é uma metáfora melhor do que alucinação. Na psicologia humana, uma confabulação ocorre quando a memória de alguém apresenta uma lacuna e o cérebro preenche-a de forma convincente, sem a intenção de enganar os outros. O ChatGPT não funciona como o cérebro humano, mas o termo confabulação serve como uma metáfora melhor porque há um princípio criativo de preenchimento de lacunas em ação…”.


Diversos autores têm vindo a desconstruir a mitificação e as promessas fantasiosas da IA (que Naomi Klein apelida de verdadeiras alucinações), chamando a atenção para os custos e as ameaças bem reais que a IA representa. Segue-se uma lista de autores e fontes que irei citar: Jaron Lanier (aqui e aqui), Miguel Nicolelis (aqui e aqui), Naomi Klein (tradução PT aqui; original aqui), Leif Weatherby (aqui), Jeremy Lent (aqui), Richard Heinberg (aqui), Émile P. Torres (aqui), James Bridle (aqui) e ainda o documentário ’The cost of AI’ do canal público holandês VPRO. Recomendo ainda a publicação ‘Amazing AI’ de Mary Louise Malig, disponível através do site Systemic Alternatives, onde a autora descreve alguns aspectos técnicos dos sistemas de IA no seu actual estado de desenvolvimento, para depois desconstruir alguns mitos mais comuns e revelar os seus impactos mais preocupantes, assim como mostrar possíveis vias de mitigação.

(continua)



segunda-feira, 22 de janeiro de 2024

A verdadeira e potencialmente devastadora Doença X

“(…) embora o termo Doença X represente uma futura emergência sanitária desconhecida, tornou-se também um catalisador para uma visão particular da resposta sanitária dominada pelo poder empresarial, tecnológico e estatal.” Kevin Bardosh

“Creio que estamos empenhados em cometer suicídio: suicídio intelectual, suicídio moral e suicídio físico. Se há algo tão importante como impedir-nos de envenenar os nossos mares e destruir as nossas florestas, é impedir-nos de envenenar as nossas mentes e destruir as nossas almas.” Iain McGilchrist

Na última semana e graças em parte a um painel promovido pelo fórum anual de Davos do WEF (World Economic Forum) dedicado ao tema (ver aqui ou aqui), a Doença X voltou a atrair a atenção dos media – e, inevitavelmente, das redes sociais e plataformas digitais. O nome foi cunhado pela OMS em 2017 ou 2018 (conforme as fontes) para designar uma eventual doença futura provocada por um vírus desconhecido de elevada transmissibilidade e letalidade (existe uma lista de candidatos que vão do Ébola ao Zika, mas não está excluída a hipótese de um vírus criado laboratorialmente), capaz de desencadear uma grande epidemia ou uma pandemia (ver aqui ou aqui). Há quem defenda que a Covid foi na verdade a primeira Doença X, enquanto outros dizem que foi apenas um ‘ensaio geral’. A notícia desencadeou reacções muito diversas e acalorados debates devido, por um lado, às mensagens mais alarmistas sobre a iminência e perigosidade da doença e, por outro, às alegadas tentativas das autoridades sanitárias e políticas globais de tirarem partido desta eventual ameaça para impor medidas restritivas e autoritárias aos seus cidadãos, a cobro de estarem apenas a garantir uma maior eficácia na mitigação de uma futura emergência sanitária (ver p.ex. aqui ou aqui). Claro que estas últimas foram imediatamente rotuladas de teorias de conspiração da (extrema) direita (ver p.ex. aqui). Apesar da grande preocupação com a desinformação (um dos riscos globais mais graves para 2024, segundo o próprio WEF – ver aqui) reiterada pelo director da OMS naquela sessão em Davos (ver p.ex. aqui), a mensagem transmitida pela própria OMS de que a Doença X pode causar 20 vezes mais mortes do que a Covid parece-me claramente alarmista e infundada, dado que se desconhece a identidade do seu agente por tratar-se de uma doença alegadamente desconhecida (pormenor que o Bartoon do Público não deixou passar - aqui).


O Fórum de Davos deste ano teve como lema ‘Reconstruir a confiança’ (ver aqui ou aqui); mas será que as elites políticas e corporativas que se juntam naquela estância alpina conseguem transmitir essa confiança ou estão ali de facto para promover a sua agenda não-democrática e para conferir a si próprias a pretensão de estarem a contribuir para resolver os reais problemas do mundo? Creio que a resposta é evidente e já tinha escrito anteriormente (aqui) sobre o facto das cimeiras de Davos (e o próprio WEF) serem meros instrumentos de ostentação e de auto-satisfação dos ‘donos dito tudo’, contando com a submissão acrítica dos media internacionais dominantes, onde as elites que as frequentam zelam pelos seus próprios interesses – e não estou sozinho na minha asserção (ver p.ex. aqui ou aqui)*.


Em relação à sessão sobre a Doença X em Davos, assim como exercícios de preparação para a mitigação de futuras pandemias, como o ‘Catastrophic Contagion’ de 2022, as alegações de boas intenções e de benevolência por parte dos seus promotores são pouco convincentes. A principal razão para a desconfiança instalada resulta, quanto a mim, do facto de muitas recriminações ou dúvidas legítimas em relação à resposta à pandemia da Covid não terem sido sequer abordadas naqueles eventos, nomeadamente questões como a origem do vírus, a imposição de confinamentos e certificados ou passaportes sanitários, a falta de transparência e de honestidade nas escolha das medidas de mitigação, a censura e demonização de todos os que questionaram as narrativas oficiais, etc. Uma outra questão crucial que não é devidamente discutida prende-se com a necessidade de regulamentação ou eventual interdição de investigação laboratorial de ganho-de-função em vírus patogénicos de potencial pandémico, que é justificada como via necessária para a prevenção ou mitigação de futuras pandemias (ver p.ex. aqui ou aqui). Por outro lado, as conclusões quanto às estratégias a adoptar são demasiado vagas ou tendem a privilegiar abordagens centralizadoras, como o chamado ‘Tratado Pandémico’ promovido pela OMS, que tem gerado muitas reservas e resistências (ver aqui ou aqui).


No entanto, e ao contrário do grande alarido e discussões acesas em volta dos perigos da próxima pandemia e da ‘agenda globalista’, o meu diagnóstico é diferente. A verdadeira Doença X é para mim uma pandemia, não viral mas memética (disseminada através de memes), que já está instalada globalmente há vários anos, disseminada pelos media dominantes globais, e cujos principais sintomas são: uma ansiedade generalizada em relação ao futuro, uma balcanização fraturante da opinião pública mundial em torno de temas muito variados - geopolítica, políticas nacionais, alterações climáticas, questões de género, a pandemia, etc. – e uma anestesia, desempoderamento e despolitização de muitos cidadãos. Mais profundamente, creio que os sintomas da verdadeira Doença X são na verdade o corolário de uma forma perniciosa de ver e de estar no mundo: uma psicose colectiva, cultural e espiritual, caracterizada pela ganância, insaciabilidade, egocentrismo, negação, ausência de empatia e arrogância, cujas raízes se estendem ao expansionismo europeu iniciado no séc. XVI, que se caracterizou pela dominação, expropriação e dizimação de povos e territórios, e que pode ser descrita invocando o conceito nativo-americano de ‘wetiko’/‘windigo’ – escrevi sobre o tema aqui. Lamentavelmente, as controvérsias em volta da Doença X e da preparação (ou falta dela) para uma próxima pandemia acabam por ofuscar a crise existencial mais grave e mais profunda que não estamos sequer a discutir no espaço público.


* As declarações de Jan Aart Scholte (professor da Univ. de Leiden) sobre o fórum de Davos citadas no artigo da Al Jazeera são bem elucidativas: “One could have posed matters in a more challenging manner: for example, in terms of building peace rather than achieving security; debating the concept of growth rather than taking its desirability for granted; looking beyond climate policy to larger debates about the ecological viability of the prevailing world order. (…) The WEF and other multi-stakeholder endeavours have democratic deficits when the people that they affect do not have adequate opportunities to participate in and control their processes. It is an exclusive invitation-only club, and meaningful participation is mainly limited to the world’s more powerful governments, corporations, and civil society actors. Moreover, when excluded people disagree with or feel harmed by WEF activities, they generally lack adequate channels to be heard and pursue redress.”