segunda-feira, 29 de janeiro de 2024

A alucinação colectiva da IA (2)

Nota: a 1ª parte deste post encontra-se aqui.

Um primeiro aspecto que alguns destes autores questionam é o próprio uso da palavra ‘inteligência’ no contexto destas ferramentas computacionais. O cientista informático e músico norte-americano Jaron Lanier alerta (em ‘There is no AI’) para os equívocos em volta do termo ‘IA’, que considera enganoso: “A posição mais pragmática é pensar na IA como uma ferramenta, não como uma ‘criatura’. Esta minha atitude não elimina a existência de perigos: independentemente da nossa abordagem, podemos de facto conceber e operar mal a nossa nova tecnologia, de formas que nos podem prejudicar ou mesmo levar à nossa extinção. Mitologizar a tecnologia apenas aumenta a probabilidade de não conseguirmos operá-la bem – e este tipo de pensamento limita a nossa imaginação, ligando-a aos sonhos do passado. Podemos trabalhar melhor partindo do pressuposto de que IA é algo que não existe. Quanto mais cedo compreendermos isto, mais cedo começaremos a gerir a nossa nova tecnologia de forma inteligente.” Lanier prefere ver a IA como uma forma de colaboração social entre seres humanos e máquinas: “Encarar a IA como uma forma de trabalhar em conjunto, e não como uma tecnologia para criar seres independentes e inteligentes, pode torná-la menos misteriosa (…) Mas isso é bom, porque o mistério só aumenta a probabilidade de má gestão.” Já o médico e cientista brasileiro Miguel Nicolelis afirma (numa entrevista) que: “A inteligência é algo restrito aos organismos porque ela é uma propriedade emergente da interação de seres vivos com o seu ambiente. A inteligência resulta no processo de seleção natural, é a forma pela qual os organismos conseguem sobreviver às vicissitudes de um ambiente em contínua modificação (…) O termo inteligência é inapropriado [para] os sistemas computacionais porque eles não preenchem a definição clássica de inteligência (…) E ela não é artificial porque ela é criada por seres humanos, ela não vem do nada, não cai do céu. A inteligência que existe nessa área é a inteligência dos programadores e das pessoas que geram esses sistemas”. Nicolelis vaticina ainda que: “O ChatGPT vai ter uma morte tão rápida quanto ele teve de subida. Todos esses sistemas são movidos a hype e a marketing”. Por seu lado, o artista e escritor britânico James Bridle, que também defende que a inteligência é uma característica dos sistemas vivos e o termo não devia ser usado no contexto da IA, escreve (em ‘The stupidity of AI’) acerca do ChatGPT: “É muito bom a produzir o que parece fazer sentido e, melhor ainda, a produzir clichés e banalidades, que compõem a maior parte da sua dieta, mas permanece incapaz de se relacionar de forma significativa com o mundo real. (…) A crença neste tipo de IA como realmente inteligente ou relevante é efectivamente perigosa. Corre o risco de contaminar a nossa fonte de pensamento colectivo e a nossa capacidade de pensar. (…) Colocar toda a nossa confiança nos sonhos de máquinas mal programadas seria abandonar a nossa capacidade como indivíduos de pesquisar e avaliar criticamente o conhecimento por nós próprios. (…) É difícil pensar em algo mais estúpido do que a inteligência artificial, tal como é praticada na era atual: (…) poderosa tecnologia de classificação e comunicação de informações que nos explora, nos usa indevidamente, nos engana e nos suplanta.” Sobre a diferença entre os actuais desenvolvimentos da IA e os sistemas computacionais rudimentares, Bridle escreve: “As primeiras IAs não sabiam muito sobre o mundo e os departamentos académicos não tinham o poder computacional para explorá-las em grande escala. A diferença hoje não é inteligência, mas sim dados e o poder. As grandes empresas tecnológicas passaram 20 anos a recolher grandes quantidades de dados da cultura e da vida quotidiana e a construir centros de processamento vastos e ávidos de energia, cheios de computadores cada vez mais potentes para os processar.” Bridle alerta ainda para as diferenças entre os sistemas de IA e a inteligência humana: “Não podemos perscrutar os seus processos de tomada de decisão porque a forma como estas redes neuronais ‘pensam’ é inerentemente desumana. É o produto de uma ordenação matemática incrivelmente complexa do mundo, em oposição à forma histórica e emocional como os humanos ordenam o seu pensamento.


Lanier em conjunto com Glen Weyl, assim como o académico Leif Weatherby, destacam outro aspecto relevante: a IA não é uma mera ferramenta tecnológica neutra, mas é de facto uma poderosa ferramenta ideológica e cultural. Lanier e Weyl escrevem (em ‘AI is an Ideology, Not a Technology’): “A IA é melhor entendida como uma ideologia política e social e não como um conjunto de algoritmos. O cerne da ideologia é que um conjunto de tecnologias, concebido por uma pequena elite técnica, pode e deve tornar-se autónomo e eventualmente substituir, em vez de complementar, não apenas os seres humanos individuais, mas grande parte da humanidade. Dado que qualquer substituição deste tipo é uma miragem, esta ideologia tem fortes ressonâncias com outras ideologias históricas, como a tecnocracia e as formas de socialismo baseadas no planeamento central, que consideravam desejável ou inevitável a substituição da maior parte do julgamento/agência humana por sistemas criados por uma pequena elite técnica.” Por seu lado, Weatherby (em ‘O ChatGPT é uma máquina de ideologia’) alerta para a natureza do processamento de informação (modelos estatísticos de agregação de dados) pelos ‘chatbots’ que os torna veículos de ideologia: “os sistemas GPT, porque automatizam uma função muito próxima do nossa noção do que significa ser humano, podem produzir mudanças na própria forma como pensamos sobre as coisas. O controlo sobre a forma como pensamos sobre as coisas chama-se ‘ideologia’, e os sistemas de GPT envolvem-na direta e quantitativamente de uma forma sem precedentes.”


Um outro aspecto que é enfatizado, quer por Naomi Klein, quer por James Bridle, mas também no documentário da VPRO citado acima, é o carácter extractivista dos sistemas de IA, num contexto económico que privilegia o poder e a riqueza hiperconcentrados e que tem como objectivo a maximização do lucro e não o bem comum. Klein escreve: “Existe um mundo em que a IA generativa, como uma poderosa ferramenta de pesquisa preditiva e executora de tarefas entediantes, poderia, de facto, ser organizada para beneficiar a humanidade, as outras espécies e a nossa casa comum. Mas, para isso acontecer, essas tecnologias teriam de ser implantadas dentro de uma ordem económica e social muito diferente da nossa, que tivesse como propósito atender às necessidades humanas e proteger os sistemas planetários que sustentam toda a vida.” Sobre as promessas fantasiosas em relação às façanhas futuras da IA (que apelida de alucinações utópicas), Klein afirma: “são as histórias de capa poderosas e atraentes para o que pode vir a ser o maior e mais importante roubo da história da humanidade. Porque o que estamos a testemunhar são as empresas mais ricas da história (Microsoft, Apple, Google, Meta, Amazon …) a apoderar-se unilateralmente da soma total do conhecimento humano que existe em formato digital, na internet, e a capturá-la dentro de produtos privados, muitas vezes visando diretamente os humanos cuja vida inteira de trabalho serviu para treinar as máquinas sem que para tal fosse dada qualquer permissão ou consentimento.” E conclui: “aquilo que aconteceu com o exterior das nossas casas [por via do Google Street View] está a acontecer com as nossas palavras, as nossas imagens, as nossas músicas, toda a nossa vida digital. Todos estão a ser capturados e usados para treinar as máquinas para simular o pensamento e a criatividade.” Por seu lado, James Bridle escreve: “Todo o tipo de IA disponível publicamente, quer funcione com imagens ou palavras, (…) baseia-se nesta apropriação generalizada da cultura existente, cujo âmbito mal podemos compreender. (…) longe de serem criações mágicas e inovadoras de máquinas brilhantes, os resultados deste tipo de IA dependem inteiramente do trabalho não creditado e não remunerado de gerações de artistas humanos. A geração de imagens e textos por IA é pura acumulação primitiva: expropriação de mão-de-obra de muitos para o enriquecimento e avanço de algumas empresas tecnológicas de Silicon Valley e dos seus proprietários bilionários.” O documentário 'The cost of AI' (VPRO) destaca a dependência energética dos servidores de processamento de dados e mostra ainda a exploração dos trabalhadores de países do Sul global que são contratados para fazer a triagem de dados pelas empresas que desenvolvem sistemas de IA.


Em ‘AI and the threat of «human extinction»’ o filósofo e historiador norte-americano Émile P. Torres alerta para outra faceta preocupante do rápido desenvolvimento de sistemas de IA: a promoção da visão de mundo tecno-utópica dos (alucinados) trans-humanistas. De facto, Torres reconhece o risco existencial da IA se virar contra os seus criadores mas alerta para o facto de que, para muitos especialistas que professam as premissas do trans-humanismo, o mal que viria para a humanidade seria a impossibilidade de realização do seu verdadeiro potencial tecno-utópico e de expansão extraplanetária: “Trans-humanistas proeminentes sugerem que o fracasso na criação de uma nova espécie pós-humana seria uma enorme tragédia moral, uma vez que significaria que não conseguiríamos cumprir o nosso grande ‘potencial’ cósmico no universo.Os trans-humanistas vêem a natureza humana como um projecto em curso, em que os seres humanos podem ser melhorados e aperfeiçoados graças a várias tecnologias (biotecnologia, nanotecnologia e tecnologias digitais). Para eles a humanidade actual não é o ponto final da evolução e esperam que, através do uso responsável da ciência, da tecnologia e de outros meios racionais, nos conseguiremos eventualmente tornar pós-humanos, seres com capacidades muito maiores do que os actuais (e imperfeitos) Homo sapiens. Alguns trans-humanistas, como William MacAskill (autor de What We Owe the Future), chegam mesmo a sugerir que a nossa destruição do mundo natural pode na verdade ser positiva, o que aponta para uma questão mais ampla sobre se a vida biológica em geral - e não apenas o Homo sapiens em particular - tem algum lugar no futuro ‘utópico’ do trans-humanismo. Isto sim, parece-me uma verdadeira alucinação! Torres resume assim a visão trans-humanista: “no seu cerne está uma visão tecno-utópica do futuro em que reprojetamos a humanidade, colonizamos o espaço, saqueamos o cosmos e estabelecemos uma civilização intergaláctica em expansão, cheia de trilhões e trilhões de pessoas "felizes", quase todas elas "vivendo" dentro de enormes simulações de computador. No processo, todos os nossos problemas serão resolvidos e a vida eterna tornar-se-á uma possibilidade real.” Para Torres, os trans-humanistas estão, no entanto, presos numa ‘pescadinha-de-rabo-na-boca’ (‘catch-22’): “provavelmente precisaremos de construir uma AGI [sigla inglesa de Inteligência Artificial Geral] para criar a utopia, mas se nos apressarmos a construí-la sem as devidas precauções, tudo poderá explodir na nossa cara. É por isso que estão preocupados: só há um caminho a seguir, mas o caminho para o paraíso está minado.


No seu artigo de opinião para a revista Resilience ('If you're driving off a cliff, do you need a faster car?'), Richard Heinberg (membro-sénior do Post Carbon Institute) começa por referir-se aos riscos já identificados da IA (ou da AGI), assim como às declarações e avisos recentes dos empresários e especialistas das BigTech. Sem menosprezar algumas das preocupações veiculadas, Heinberg chama a atenção para outro perigo iminente: “Mesmo que (…) a IA não acabe com toda a vida na Terra, os seus perigos potenciais não se limitam a empregos perdidos, notícias falsas e factos alucinados. Há outro risco profundo que tem recebido pouca cobertura dos media – um risco que, na minha opinião, os pensadores sistémicos deveriam discutir mais amplamente. Essa é a probabilidade de que a IA seja um acelerador significativo de tudo o que nós, humanos, já fazemos.” Heinberg refere-se à chamada ‘Grande Aceleração’ da 2ª metade do século XX, correspondente ao maior crescimento económico e populacional de sempre, alavancada por diversos ‘aceleradores’, como os combustíveis fósseis, a ‘Revolução Verde’ na agricultura e os avanços nas tecnologias de informação. Embora economistas e governantes ortodoxos enalteçam estas façanhas, as ‘faturas’ desses alegados sucessos surgem agora para nos assombrar a todos: “A agricultura industrial está a destruir as camadas superficiais de solo fértil da Terra a uma taxa de dezenas de milhares de milhões de toneladas por ano. A natureza selvagem está em retração, tendo as espécies animais perdido, em média, 70% do seu número no último meio século. E estamos a alterar o clima planetário de formas que terão repercussões catastróficas para as gerações futuras. É difícil evitar a conclusão de que todo o empreendimento humano cresceu demasiado e que está a transformar a natureza (‘os recursos’) em desperdício e poluição demasiado rapidamente para se sustentar.” E a IA poderá ser afinal mais um novo ‘acelerador’ daquela destruição: “Esta tecnologia promete optimizar a eficiência e aumentar os lucros, facilitando direta ou indiretamente a extração e o consumo de recursos. Se realmente nos estivermos a dirigir para um precipício, a IA poderá levar-nos ao limite muito mais rapidamente, reduzindo o tempo disponível para mudar de direção.” Segundo Heinberg, a IA pode também ser um acelerador das nossas dependências das tecnologias digitais, provocando uma estupidificação acrescida das pessoas, assim como uma maior sujeição a quem controla aquelas tecnologias: “A IA (…) apresenta o risco de um maior embrutecimento da humanidade – exceto, talvez, para aqueles que optarem por implantar um computador nos seus cérebros. E há também o risco de que as pessoas que desenvolvem ou produzem estas tecnologias controlem praticamente tudo o que sabemos e pensamos, na busca do seu próprio poder e lucro.” Heinberg sugere que o que falta aos sistemas de IA é uma faceta-chave da consciência humana, a sabedoria (‘wisdom’), ou seja, “um reconhecimento dos limites, aliado a uma sensibilidade às relações e aos valores que priorizam o bem comum.” O perigo que daí advém é claro: “justamente no momento em que mais precisávamos de travar o uso de energia e o consumo de recursos, estamos a externalizar [‘outsource’] não apenas o processamento de informação, mas também a nossa tomada de decisões, em máquinas que carecem completamente de sabedoria para compreender e responder aos desafios existenciais que a aceleração apresenta. Criámos um verdadeiro ‘aprendiz de feiticeiro’.” Heinberg considera diferentes hipóteses de voltar a meter o génio na lâmpada de onde o deixámos sair – que vão desde desligar pura e simplesmente todos os sistemas de IA, a imbuir a IA da sabedoria que lhe falta. Mas em todas encontra limitações. Sugere então que a única saída será promover uma cultura de sabedoria colectiva enquanto ainda há tempo: “Ou recuperamos a sabedoria coletiva mais depressa do que as nossas máquinas conseguem desenvolver inteligência artificial executiva, ou provavelmente será o fim da partida [‘game over’].”


Num outro artigo de opinião ('To counter AI risk we must develop an integrated intelligence'), o autor britânico Jeremy Lent adopta uma postura semelhante à de Heinberg, considerando que existem diversos riscos associados ao desenvolvimento da IA, munida essencialmente de uma inteligência analítica, mas que o antídoto mais potente corresponde à capacidade integrativa da inteligência humana que permite estabelecer relações de empatia com as outras formas de vida e o ambiente: “O aumento explosivo do poder da IA representa um risco existencial para a humanidade. Para contrariar esse risco, e potencialmente redireccionar a trajectória da nossa civilização, precisamos de uma compreensão mais integrada da natureza da inteligência humana e dos requisitos fundamentais para o florescimento humano.” Lent defende que os sistemas de IA se baseiam essencialmente numa forma de inteligência analítica e racional que é boa a executar tarefas repetitivas e cálculos elaborados, mas que tende a transmitir uma imagem utilitarista e limitada do mundo. Pelo contrário, a inteligência humana integra duas formas complementares de consciência, uma mais racional (‘conceptual’) e outra mais sensível e intuitiva (‘animate’). Lent escreve: “a inteligência maquinal é na verdade puramente analítica. Não tem nenhuma estrutura que o ligue à vibrante senciência da vida. Independentemente do seu nível de sofisticação e potência, nada mais é do que um dispositivo de reconhecimento de padrões. Os teóricos da IA tendem a pensar na inteligência como independente do substrato – o que significa que o conjunto de padrões e ligações que a compõem poderia, em princípio, ser separado da sua base material e replicado exatamente noutro lugar, como quando se migram os dados de um computador antigo para um novo. Isso é verdade para a IA, mas não para a inteligência humana.”


Sem querer resumir todos os diferentes pontos de vista que partilhei até agora, poderia dizer que a IA é uma extensão de um paradigma social e cultural que acredita, quase cegamente, nas potencialidades da mente racional humana e na sua capacidade de criação de novas tecnologias benignas – uma versão depurada do excepcionalismo humano ou do antropocentrismo arrogante. Parece-me tratar-se mais de uma manifestação de entrega a uma certa estupidez natural (ou 'esperteza saloia') do que de verdadeira inteligência (artificial ou não). Desprovida principalmente da sabedoria a que se refere Heinberg ou da responsabilidade humana a que se referem Lanier e Weyl. Recupero as palavras de James Bridle que abrem este post: Podemos imaginar tecnologias poderosas de processamento e comunicação de informação que não nos explorem, não nos utilizem indevidamente, não nos enganem e não nos suplantem? Sim, podemos – assim que sairmos das redes de poder corporativo que definiram a atual onda de IA.. E concluo com as palavras que rematam o artigo de Jeremy Lent: “Diz-se por vezes que o que é necessário para unir a humanidade é uma flagrante ameaça comum, tal como uma hipotética espécie alienígena hostil que chega à Terra ameaçando-nos de extinção. Talvez esse momento esteja agora prestes a chegar – com uma inteligência alienígena emergindo das nossas próprias maquinações. Se houver esperança real para um futuro positivo, ela emergirá da nossa compreensão de que, como seres humanos, somos seres conceptuais e animados, e estamos profundamente conectados com toda a vida neste precioso planeta – e que coletivamente temos a capacidade de desenvolver uma civilização verdadeiramente integradora, que estabeleça as condições para que toda a vida floresça numa Terra regenerada.

A alucinação colectiva da IA (1)

© Collins Dictionary
Notas prévias: este artigo foi escrito por pessoas e só recorri a uma ferramenta de IA para a sua elaboração (Google Translate), mas sempre sujeito à minha revisão posterior; o post foi dividido em duas partes para facilitar a leitura – a 2ª parte está aqui.

(…) hallucinate seems fitting for a time in history in which new technologies can feel like the stuff of dreams or fiction—especially when they produce fictions of their own. Editorial do Cambridge Dictionary sobre a ‘Palavra do Ano 2023’

“AI” is best understood as a political and social ideology rather than as a basket of algorithms. (…) the AI way of thinking can distract from the responsibility of humans. Jaron Lanier e Glen Weyl (daqui)

AI turns out not to be a divine machine, but an industry that takes blood, sweat and metals. A system of extraction and exploitation on an industrial scale with dire consequences for the earth and humans. Documentário ‘The cost of AI’ (VPRO, 2023)

AI image and text generation is pure primitive accumulation: expropriation of labour from the many for the enrichment and advancement of a few Silicon Valley technology companies and their billionaire owners. James Bridle (daqui)

Can we imagine powerful information sorting and communicating technologies that don’t exploit, misuse, mislead and supplant us? Yes, we can – once we step outside the corporate power networks that have come to define the current wave of AI. James Bridle (daqui)

A Inteligência Artificial (IA) é um dos ‘hypes’ do momento e foi eleita palavra do ano pelo dicionário inglês Collins (ver aqui). Na sequência do encantamento público e mediático das últimas décadas pelas tecnologias digitais e pela chamada 4ª Revolução Industrial (ver p.ex. aqui ou aqui), a IA surge agora envolta num misto de fascínio e de preocupação, em particular devido às façanhas, mas também aos desvarios, de uma das aplicações mais populares da chamada IA generativa – os ‘chatbots’, como o ChatGPT. Essa é aliás a principal razão para a escolha dos editores do Collins: a rapidez estonteante da evolução da capacidade de reprodução da linguagem humana pelas novas ferramentas de IA e a explosão de discussões, escrutínio e especulação que têm gerado (ver aqui). As promessas de inovação, de ‘disrupção’ ou de bem-estar que a 4ª Revolução Industrial, a IA ou o ChatGPT alegadamente trarão ao mundo têm vindo a ser empoladas por personalidades mediáticas como Bill Gates (ver aqui) ou Klaus Schwab (ver aqui), mas são também apregoadas entusiasticamente ad nauseam pela generalidade dos media. Os editores do dicionário online ‘Dictionary.com’, que elegeu um outro termo relacionado com IA – ‘hallucinate’ (alucinar) – como palavra do ano (ver adiante), defendem que “A IA mudará para sempre a forma como trabalhamos, aprendemos, criamos, interagimos com a (des)informação e pensamos sobre nós próprios”. Notícias sobre as mais variadas aplicações da IA e os seus alegados benefícios ou limitações, surgem quase diariamente; seguem-se alguns exemplos dessas aplicações em diferentes sectores: biodiversidade (aqui), gastronomia (aqui ou aqui), imobiliário (aqui), artes (aqui), media/jornalismo (aqui ou aqui), religião (aqui ou aqui). Não admira pois que as expectativas sobre as capacidades e façanhas da IA sejam tão elevadas – como afirma ironicamente a jornalista e escritora canadiana Naomi Klein num artigo de opinião ("As máquinas de IA não estão a 'alucinar'. Os seus criadores, sim") em que desconstrói as principais promessas falaciosas das grandes corporações tecnológicas: “A IA generativa acabará com a pobreza, dizem eles. Vai curar todas as doenças. Vai resolver as alterações climáticas. Isso tornará o nosso trabalho mais significativo e emocionante. Irá desencadear vidas de lazer e contemplação, ajudando-nos a recuperar a humanidade que perdemos para a mecanização do capitalismo tardio. Vai acabar com a solidão. Isso tornará os nossos governos racionais e responsivos.”


No entanto, os mesmos media que anunciam cada nova façanha da IA (muitas vezes acriticamente), têm vindo também a alertar (ou a fomentar alarmismo…) para os riscos existenciais para a humanidade – numa actualização da ameaça mais antiga de que computadores ou robots super-inteligentes e potentes iriam exterminar os seus criadores humanos (ver p.ex. aqui). Isto aconteceu nomeadamente após diversos apelos ou avisos durante o ano de 2023 vindos de académicos, especialistas ou empresários envolvidos no desenvolvimento de sistemas de IA – ver aqui, aqui ou aqui – onde expressaram as suas inquietações. A primeira declaração, do ‘Center for AI Safety’, subscrita por nomes sonantes das empresas de Silicon Valley (BigTech), mas também por académicos de áreas diversas, consiste numa única frase: “Mitigar o risco existencial de extinção proveniente da IA deve ser uma prioridade global, juntamente com outros riscos à escala da sociedade, como pandemias e guerra nuclear.” A segunda é uma carta aberta do ‘Future of Life Institute’, subscrita também por muitos nomes sonantes das BigTech, apelando a uma moratória no desenvolvimento da IA. A juntar ao tom dramático e abrangência dos riscos apontados naquelas declarações, alguns dos perigos ou impactos negativos que têm vindo a ser identificados prendem-se com questões mais específicas como o trabalho (aqui ou aqui), a literacia digital (aqui), o plágio/autoria (aqui), a proteção de privacidade (aqui) ou a desigualdade económica (aqui), tendo desencadeado múltiplos apelos de regulação das empresas que desenvolvem sistemas de IA e de adopção de princípios éticos (ver p.ex. as declarações mencionadas acima ou o artigo de N. Klein já citado). No entanto, os aspectos considerados mais graves pelos especialistas e que têm causado maior consternação e acesas polémicas na opinião pública são: a IA irá tornar-se autónoma e destruirá os seus criadores (p.ex. por considerá-los supérfluos); a IA tornar-se-á mais inteligente do que os seus criadores e/ou irá tornar-se auto-consciente; a IA vai substituir o trabalho humano e vai provocar desemprego em massa – ver p.ex. artigos de Jeremy Lent (aqui), Richard Heinberg (aqui) ou Émile P. Torres (aqui), que serão citados adiante. Há quem considere estes perigos reais e esteja muito assustado (incluindo muitos especialistas da área), mas há também quem os considere uma sobrestimação grosseira da capacidade dos sistemas de IA. Talvez possamos dormir mais descansados sabendo que os especialistas da área estão atentos e até fundaram ‘think-tanks’ e parcerias para lidar com os riscos existenciais das novas tecnologias digitais, como os já referidos ‘Center for AI Safety’ e ‘Future of Life Institute’ ou ainda a ‘Partnership on AI to Benefit People and Society’. Ou talvez não!...


Irei aqui cobrir algumas das reflexões críticas que tenho vindo a respigar, versando diversas das ameaças ou riscos igualmente sérios mas menos falados da IA, como sejam as evidentes limitações das suas capacidades, os seus impactos ambientais (consumo de energia e recursos) e sociais (aumento das desigualdades) negativos, o uso abusivo de dados e de propriedade intelectual, ou a exacerbação do poder corporativo.


Começo com a referência a um outro termo - ‘alucinar’ -, eleito igualmente como palavra do ano, desta feita pelo (respeitável) dicionário Cambridge (ver aqui ou aqui), assim como pelo Dictionary.com (ver aqui). Na sua acepção habitual, alucinação refere-se a um distúrbio do foro psicológico ou a uma experiência mística ou psicadélica, que leva uma pessoa a ver ou ouvir algo que não existe na realidade, mas, no contexto da IA, designa uma anomalia nos resultados produzidos pelas ferramentas de IA generativa (os ‘chatbots’, mas também os geradores de imagem, como o Dall-E) que originam textos ou imagens falsos, completamente inventados ou bizarramente distorcidos, mas muitas vezes verosímeis - ver p.ex. aqui ou aqui. O editorial do dicionário Cambridge sobre a sua escolha de palavra do ano adverte: “Os modelos de linguagem [‘large language models’-LLMs] são tão confiáveis quanto as informações com as quais os seus algoritmos aprendem. A experiência humana é indiscutivelmente mais importante do que nunca para criar informações confiáveis e atualizadas com as quais os LLMs possam ser treinados”. Uma das críticas ao uso do termo alucinação no contexto da IA é a de que antropomorfiza uma máquina atribuindo-lhe qualidades humanas; a outra é a de que eufemiza ou trivializa um erro dos algoritmos informáticos – como defendem Naomi Klein (aqui) ou Benj Edwards em artigo para o site Ars Technica (ver também artigo do site da Universidade de Cambridge já citado). Edwards alega que o recurso ao termo alucinar “antropomorfiza os modelos de IA (sugerindo que eles têm características semelhantes às humanas) ou confere-lhes agência (sugerindo que podem fazer as suas próprias escolhas) em situações em que isso não deveria estar implícito. Os criadores de LLMs comerciais também podem usar alucinações como pretexto para culpar o modelo de IA por resultados erróneos, em vez de assumirem a responsabilidade pelos próprios resultados.” Edwards prefere o uso do termo ‘confabulação’ para descrever as disfuncionalidades dos modelos de IA que criam histórias fantasiosas como se fossem verdadeiras: “(…) embora igualmente imperfeita, é uma metáfora melhor do que alucinação. Na psicologia humana, uma confabulação ocorre quando a memória de alguém apresenta uma lacuna e o cérebro preenche-a de forma convincente, sem a intenção de enganar os outros. O ChatGPT não funciona como o cérebro humano, mas o termo confabulação serve como uma metáfora melhor porque há um princípio criativo de preenchimento de lacunas em ação…”.


Diversos autores têm vindo a desconstruir a mitificação e as promessas fantasiosas da IA (que Naomi Klein apelida de verdadeiras alucinações), chamando a atenção para os custos e as ameaças bem reais que a IA representa. Segue-se uma lista de autores e fontes que irei citar: Jaron Lanier (aqui e aqui), Miguel Nicolelis (aqui e aqui), Naomi Klein (tradução PT aqui; original aqui), Leif Weatherby (aqui), Jeremy Lent (aqui), Richard Heinberg (aqui), Émile P. Torres (aqui), James Bridle (aqui) e ainda o documentário ’The cost of AI’ do canal público holandês VPRO. Recomendo também a publicação ‘Amazing AI’ de Mary Louise Malig, disponível através do site Systemic Alternatives, onde a autora descreve alguns aspectos técnicos dos sistemas de IA no seu actual estado de desenvolvimento, para depois desconstruir alguns mitos mais comuns e revelar os seus impactos mais preocupantes, assim como mostrar possíveis vias de mitigação.

(continua)



segunda-feira, 22 de janeiro de 2024

A verdadeira e potencialmente devastadora Doença X

“(…) embora o termo Doença X represente uma futura emergência sanitária desconhecida, tornou-se também um catalisador para uma visão particular da resposta sanitária dominada pelo poder empresarial, tecnológico e estatal.” Kevin Bardosh

“Creio que estamos empenhados em cometer suicídio: suicídio intelectual, suicídio moral e suicídio físico. Se há algo tão importante como impedir-nos de envenenar os nossos mares e destruir as nossas florestas, é impedir-nos de envenenar as nossas mentes e destruir as nossas almas.” Iain McGilchrist

Na última semana e graças em parte a um painel promovido pelo fórum anual de Davos do WEF (World Economic Forum) dedicado ao tema (ver aqui ou aqui), a Doença X voltou a atrair a atenção dos media – e, inevitavelmente, das redes sociais e plataformas digitais. O nome foi cunhado pela OMS em 2017 ou 2018 (conforme as fontes) para designar uma eventual doença futura provocada por um vírus desconhecido de elevada transmissibilidade e letalidade (existe uma lista de candidatos que vão do Ébola ao Zika, mas não está excluída a hipótese de um vírus criado laboratorialmente), capaz de desencadear uma grande epidemia ou uma pandemia (ver aqui ou aqui). Há quem defenda que a Covid foi na verdade a primeira Doença X, enquanto outros dizem que foi apenas um ‘ensaio geral’. A notícia desencadeou reacções muito diversas e acalorados debates devido, por um lado, às mensagens mais alarmistas sobre a iminência e perigosidade da doença e, por outro, às alegadas tentativas das autoridades sanitárias e políticas globais de tirarem partido desta eventual ameaça para impor medidas restritivas e autoritárias aos seus cidadãos, a cobro de estarem apenas a garantir uma maior eficácia na mitigação de uma futura emergência sanitária (ver p.ex. aqui ou aqui). Claro que estas últimas foram imediatamente rotuladas de teorias de conspiração da (extrema) direita (ver p.ex. aqui). Apesar da grande preocupação com a desinformação (um dos riscos globais mais graves para 2024, segundo o próprio WEF – ver aqui) reiterada pelo director da OMS naquela sessão em Davos (ver p.ex. aqui), a mensagem transmitida pela própria OMS de que a Doença X pode causar 20 vezes mais mortes do que a Covid, parece-me claramente alarmista e infundada, dado que se desconhece a identidade do seu agente por tratar-se de uma doença alegadamente desconhecida (pormenor que o Bartoon do Público não deixou passar - aqui).


O Fórum de Davos deste ano teve como lema ‘Reconstruir a confiança’ (ver aqui ou aqui); mas será que as elites políticas e corporativas que se juntam naquela estância alpina conseguem transmitir essa confiança ou estão ali de facto para promover a sua agenda não-democrática e para conferir a si próprias a pretensão de estarem a contribuir para resolver os reais problemas do mundo? Creio que a resposta é evidente e já tinha escrito anteriormente (aqui) sobre o facto das cimeiras de Davos (e o próprio WEF) serem meros instrumentos de ostentação e de auto-satisfação dos ‘donos dito tudo’, contando com a submissão acrítica dos media internacionais dominantes, onde as elites que as frequentam zelam pelos seus próprios interesses – e não estou sozinho na minha asserção (ver p.ex. aqui ou aqui)*.


Em relação à sessão sobre a Doença X em Davos, assim como exercícios de preparação para a mitigação de futuras pandemias, como o ‘Catastrophic Contagion’ de 2022, as alegações de boas intenções e de benevolência por parte dos seus promotores são pouco convincentes. A principal razão para a desconfiança instalada resulta, quanto a mim, do facto de muitas recriminações ou dúvidas legítimas em relação à resposta à pandemia da Covid não terem sido sequer abordadas naqueles eventos, nomeadamente questões como a origem do vírus, a imposição de confinamentos e certificados ou passaportes sanitários, a falta de transparência e de honestidade nas escolha das medidas de mitigação, a censura e diabolização de todos os que questionaram as narrativas oficiais, etc. Uma outra questão crucial que não é devidamente discutida prende-se com a regulamentação ou eventual interdição de investigação laboratorial de ganho-de-função em vírus patogénicos de potencial pandémico, que é justificada como via necessária para a prevenção ou mitigação de futuras pandemias (ver p.ex. aqui ou aqui). Por outro lado, as conclusões quanto às estratégias a adoptar são demasiado vagas ou tendem a privilegiar abordagens centralizadoras, como o chamado ‘Tratado Pandémico’ promovido pela OMS, que tem gerado muitas reservas e resistências (ver aqui ou aqui).


No entanto, e ao contrário do grande alarido e discussões acesas em volta dos perigos da próxima pandemia e da ‘agenda globalista’, o meu diagnóstico é diferente. A verdadeira Doença X é para mim uma pandemia, não viral mas memética (disseminada através de memes), que já está instalada globalmente há vários anos, disseminada pelos media dominantes globais, e cujos principais sintomas são: uma ansiedade generalizada em relação ao futuro, uma balcanização fraturante da opinião pública mundial em torno de temas muito variados - geopolítica, políticas nacionais, alterações climáticas, questões de género, a pandemia, etc. – e uma anestesia, desempoderamento e despolitização de muitos cidadãos. Mais profundamente, creio que os sintomas da verdadeira Doença X são na verdade o corolário de uma forma perniciosa de ver e de estar no mundo: uma psicose colectiva, cultural e espiritual, caracterizada pela ganância, insaciabilidade, egocentrismo, negação, ausência de empatia e arrogância, cujas raízes se estendem ao expansionismo europeu iniciado no séc. XVI, que se caracterizou pela dominação, expropriação e dizimação de povos e territórios, e que pode ser descrita invocando o conceito nativo-americano de ‘wetiko’/‘windigo’ – escrevi sobre o tema aqui. Lamentavelmente, as controvérsias em volta da Doença X e da preparação (ou falta dela) para uma próxima pandemia acabam por ofuscar a crise existencial mais grave e mais profunda que não estamos sequer a discutir no espaço público.


* As declarações de Jan Aart Scholte (professor da Univ. de Leiden) sobre o fórum de Davos citadas no artigo da Al Jazeera são bem elucidativas: “One could have posed matters in a more challenging manner: for example, in terms of building peace rather than achieving security; debating the concept of growth rather than taking its desirability for granted; looking beyond climate policy to larger debates about the ecological viability of the prevailing world order. (…) The WEF and other multi-stakeholder endeavours have democratic deficits when the people that they affect do not have adequate opportunities to participate in and control their processes. It is an exclusive invitation-only club, and meaningful participation is mainly limited to the world’s more powerful governments, corporations, and civil society actors. Moreover, when excluded people disagree with or feel harmed by WEF activities, they generally lack adequate channels to be heard and pursue redress.” 

quinta-feira, 30 de novembro de 2023

Questionar a hegemonia do conhecimento científico

A ciência, diz-se agora, é a religião do nosso tempo. Enquanto dantes esperávamos que os sacerdotes nos elucidassem sobre a natureza do cosmos e da existência humana, agora viramo-nos para homens, e por vezes mulheres, de batas brancas.” John Dupré (filósofo da ciência)

Seria possível descrever tudo cientificamente, mas não faria sentido. Seria uma descrição sem significado - como tentar descrever uma sinfonia de Beethoven como variações de pressão sonora.” Albert Einstein

Nota prévia: este post foi escrito na sequência de uma palestra que dei na Biblioteca de Alcântara a 22 de Novembro, no âmbito do ciclo Horizontes da Ciência; é possível aceder ao vídeo da palestra nesta ligação.

O desenvolvimento do ramo do conhecimento humano sobre o mundo que ficou conhecido como ‘Ciência’* teve o seu momento fundador na Europa entre os séculos XVI e XVIII num processo que foi apelidado de ‘Revolução Científica’ e que culminou no Iluminismo europeu, coincidindo, por sua vez, com o começo do período designado por Modernidade, que se estende até aos dias de hoje. Algumas das personalidades associadas à génese daquele processo incluem o astrónomo florentino Galileo Galilei, o estadista e filósofo inglês Francis Bacon, o filósofo francês René Descartes e o polímata inglês Isaac Newton. A Revolução Científica traduziu-se não só numa amplificação da capacidade de entendimento do mundo natural e no abandono de certos dogmas religiosos, mas também na construção de uma visão sobre o mundo com profundos reflexos nas dimensões cultural, social e política das sociedades europeias. É importante realçar que esse momento de viragem da civilização ocidental e da sua (nossa) visão de mundo aconteceu em paralelo com a expansão colonial europeia e com a chamada Revolução Industrial. Essa visão de mundo, que se tornou então dominante e para a qual também contribuiu o Cristianismo, pode ser descrita através de termos (conceitos) como racionalismo, materialismo, cartesianismo, mecanicismo, reducionismo (estes cinco termos estão fortemente correlacionados e são por vezes usados indistintamente), antropocentrismo (ou excepcionalismo humano) e utilitarismo (aflorei estes dois conceitos num post anterior ). Estes desenvolvimentos culminaram com o positivismo do século XIX e mantêm-se ainda hoje no chamado cientismo (ver adiante). Aqueles aspectos da visão de mundo dominante, aliados à expansão do modelo socioeconómico capitalista/produtivista durante o século XX, têm-se revelado problemáticas por estarem a conduzir a humanidade a um conjunto de crises (ambiental, social, económica, cultural), que representam riscos existenciais dificilmente superáveis (como tenho defendido em vários escritos neste blogue). O papel da Revolução Científica e das posteriores crises internas da Ciência na evolução da visão de mundo ocidental e na crise ambiental global foi analisado extensivamente por Miguel Almeida no seu livro de 2006 “Um planeta ameaçado – a ciência perante o colapso da biosfera”. Recomendo ainda o visionamento do filme ‘Mindwalk’ (1990) do realizador Bernt Capra, que questiona a visão ocidental do mundo baseada no mecanicismo cartesiano e à qual contrapõe a visão holística da teoria de sistemas complexos, e sobre o qual escrevi este post em 2012.


Não obstante e como referi num post anterior, o conhecimento científico tem desempenhado um papel central no desenvolvimento das sociedades humanas modernas e os avanços nos diferentes ramos da Ciência proporcionaram não só notáveis aumentos do bem-estar e da prosperidade em largas camadas da população, como também feitos tecnológicos extraordinários, e ainda uma quantidade inaudita de conhecimentos sobre os seres humanos, os outros seres vivos, o planeta e o universo. Os sucessos da Ciência como empreendimento humano e fonte de conhecimento, assim como as suas capacidades de previsão e de controlo, enaltecidos pelos positivistas, conferiram-lhe uma aura de objectividade, de veracidade e de infalibilidade que a colocaram numa posição de hegemonia relativamente a outras vias de conhecimento, como as humanidades (e em particular, a filosofia), as artes ou a teologia (ver p.ex. o livro de Miguel Almeida citado acima e o ensaio de Boaventura Sousa Santos citado abaixo). No entanto, vários têm sido os autores (historiadores, sociólogos, filósofos, etc.) que, desde meados do século XIX mas em particular a partir da primeira metade do século XX, vêm questionando esse papel hegemónico do conhecimento científico e o seu equacionamento ao Progresso, alertando para os perigos do seu poder desmedido e da húbris que lhe está muitas vezes associada – nessa lista incluem-se Max Weber, Herbert Marcuse, Martin Heidegger, Bertrand Russell, Hannah Arendt ou Lewis Mumford, entre outros. Muitos daqueles pensadores defenderam também que a prática científica apresenta diversos constrangimentos, vieses e limitações, e que o conhecimento adquirido por esta via revela apenas uma parte da realidade e que, por isso mesmo, conduz a uma visão parcial e redutora do mundo. Uma das questões fulcrais, que tinha sido colocada já no século XVIII pelo filósofo Jean-Jacques Rousseau (citada aqui) e que foi retomada no Grande Debate Nobel de 1991 (citada no texto de Henry W. Kendall incluído nesta colectânea), é a de indagar se o conhecimento científico acumulado se traduziu em sabedoria e verdadeiro progresso, ou seja, se trouxe de facto melhorias significativas do bem-estar e da prosperidade da generalidade da humanidade, assim como para as futuras gerações. O sociólogo Boaventura Sousa Santos fez uma análise crítica do paradigma da ciência moderna e da sua hegemonia duradoura no seu ensaio de 1987 'Um discurso sobre as ciências'.


Após o desfecho da 2ª Guerra Mundial e com a progressiva constatação das implicações do conhecimento científico nas esferas social e política, aquelas reflexões estenderam-se aos próprios cientistas que foram expressando publicamente as suas preocupações com as questões da responsabilidade ética e social da Ciência e dos cientistas, bem como com a do seu envolvimento político. Entre as vozes mais audíveis, onde se incluem vários prémios Nobel, destacam-se as dos físicos Albert Einstein, Robert Oppenheimer, Joseph Rotblat e Henry W. Kendall, as dos químicos Linus Pauling e John Polanyi, ou as dos biólogos/bioquímicos Salvador Luria, Jacques Monod e Sydney Bremmer. É possível encontrar alguns dos seus escritos numa edição de autor da historiadora da ciência Palmira Fontes da Costa, que traduziu e compilou textos destes cientistas – ver aqui. As reflexões de Einstein podem ser lidas na colectânea ‘Como vejo a ciência, a religião e o mundo’ (2005).


Por seu lado, a hegemonia do conhecimento científico durante o século XX, amplificada por políticos e media, tem conduzido a uma subalternização ou desvalorização das outras áreas de conhecimento, não só na opinião pública e no discurso político, como mesmo dentro das universidades e instituições científicas. O extremar desta sobrevalorização da Ciência foi apelidado de Cientismo (ou cientifismo; “Scientism” em inglês), termo que foi introduzido com uma conotação negativa, mas que tem sido abraçado por vários cientistas e filósofos que lhe conferem uma acepção positiva – ver p.ex. aqui ou aqui. Esta posição tem sido adoptada também por cientistas e divulgadores de ciência que se auto-intitulam de cépticos (ver p.ex. aqui), muitos deles com um enfoque na denúncia das chamadas ‘pseudociências’. Outros têm focado as suas preocupações nos perigos da iliteracia científica e na descredibilização da Ciência e das instituições científicas na opinião pública. Essas preocupações são legítimas e relevantes, em particular quando se verifica que economistas e políticos não levam em conta o conhecimento científico disponível nas suas tomadas de decisão sobre assuntos de grande impacto social, como por exemplo na mitigação da crise ambiental (escrevi sobre isso aqui). No entanto, o cientismo pode converter-se facilmente em fundamentalismo e autoritarismo quando menospreza ou rejeita outras vias de conhecimento, e quando pretende ignorar os vieses culturais, sociais, económicos ou políticos da prática científica (ver p.ex. aqui).


Aquela atitude tem sido perfilhada em Portugal pelo físico Carlos Fiolhais e pelo comunicador de ciência David Marçal, nas suas diversas investidas mediáticas (jornais, rádios e TV), em particular após o lançamento do seu livro ‘A ciência e os seus inimigos’ (Gradiva, 2017). Leonor Nazaré escreveu então um incisivo artigo de opinião no jornal Público, onde critica a postura dogmática daqueles autores em relação à supremacia da Ciência como via de conhecimento. A forma clara e sucinta como apresenta a sua argumentação constitui a força principal do artigo, denunciando a visão simplista de Fiolhais e Marçal, que colocam no mesmo ‘saco’ da pseudo-ciência as medicinas alternativas, as críticas aos OGM, a homeopatia ou a astrologia. Escrevi anteriormente este post onde procurei desconstruir a atribuição do rótulo de anti-ciência ou de negacionismo aos que se opõem aos OGM. O texto de Leonor Nazaré terá sido muito provavelmente menosprezado pelos visados pois é escrito por uma académica das artes e humanidades - o que acontece também com muitas outras reflexões de filósofos e pensadores das ciências sociais e humanas que têm criticado a atitude fundamentalista do cientismo e a hegemonia da tecnociência.


O caso de Fiolhais e Marçal não é diferente de muitos outros que, no seu papel de evangelistas de uma Ciência que alega ter retirado a humanidade da ignorância, acabam por menosprezar ou vilipendiar outras formas de conhecimento, cuja validade e utilidade devem ser encaradas com sensatez e serenidade, escamoteando o facto de o conhecimento acarretar consigo uma enorme responsabilidade: a de ser transformado em sabedoria de vida e em bem-estar colectivo. Atendendo à gravidade e extensão da confluência de crises que estamos a viver, cujos sintomas são em boa parte consequência das conquistas tecnológicas alicerçadas nas ciências, é evidente que a húbris de muitos cientistas é claramente infundada e descabida. No post que anuncia o livro citado acima, Marçal afirma que “A ciência precisa da liberdade de pensamento que é marca das democracias”. Ora é essa mesma liberdade de pensamento que parece estar ausente da narrativa dos próprios autores, incapazes de um olhar crítico sobre a prática científica. Como escreveu Manuela Soares num comentário ao livro, os autores não se questionam “sobre a ciência vendida ao negócio, sobre a ciência que precisa de ser sustentada pelo lucro, sobre a ciência que não investiga onde não convém investigar, sobre a ciência que só investiga onde já há luz e que por isso só encontra o que quer encontrar”. Tudo isto torna dificilmente defensáveis as visões da Ciência como ‘neutra’, ‘independente’, ‘desinteressada’ e ‘despreocupada’. O professor e cientista português Jorge Calado enumera e analisa no seu livro “Os limites da Ciência” (2014) algumas das limitações, fragilidades e vieses da prática científica.


Um outro autor lusófono que tem uma postura crítica em relação à hegemonia do conhecimento científico e à húbris que lhe está muitas vezes associada é o moçambicano Mia Couto (escritor e biólogo), nomeadamente nos seus perspicazes e bem-humorados ensaios incluídos na colectânea Pensatempos (2005), dos quais transcrevo alguns excertos: “Generalizou-se a ideia de que estamos perto do fim da doença, de que estamos perto da eternidade. Esse anunciar do paraíso só pode ser alimentado pelo pecado da soberba. Nós podemos estar a ser convertidos nos sacerdotes de uma espécie de Igreja universal do Reino da Ciência.” (Os setes pecados de uma ciência pura) “Em nome da ciência se esqueceram outras sabedorias, outras aproximações. A ciência se foi convertendo em algo muito pouco científico, uma acomodada ‘certificação’ daquilo que se pensa ser ‘realidade’. Perdeu-se inquietação, arrojo, e, sobretudo, perdeu-se a disponibilidade para experimentar outras vias de conhecimento.” (Por um mundo escutador) “Há quem acredite que a ciência é um instrumento para governarmos o mundo. Mas eu prefiro ver no conhecimento científico um meio para alcançarmos não domínios mas harmonias. Criarmos linguagens de partilha com os outros, incluindo os seres que acreditamos não terem linguagem. (…) Conhecermos não para sermos donos. Mas para sermos mais companheiros das criaturas vivas e não vivas com quem partilhamos este universo.” (Uma palavra de conselho e um conselho sem palavras)


Finalmente, parece-me muito relevante a ligação que Leonor Nazaré estabeleceu entre o reducionismo tecnocientífico e as narrativas trans-humanistas, como o faz também o filósofo Rob Riemen no seu livro 'O regresso da princesa Europa' (2016), onde escreve a propósito da inevitabilidade do progresso tecnológico: “A civilização é precisamente a capacidade humana de dizer ‘não’ e, parece-me, também podemos dizer ‘não’ à clonagem e àquela horrenda máquina-humana sob a forma do homem singular [anunciado pelos trans-humanistas]. Ainda me parece incrível que os tecno-evangelistas se gabem de estar a dar à humanidade um género de ‘progresso’ eterno e no entanto, assim que as questões éticas surgem, caiam no mais completo determinismo e fatalismo." Aquela visão transpareceu também muito claramente na série documental “2077 - 10 segundos para futuro”, exibida em 2018 pela RTP – ver aqui –, sobre a qual escrevi uma análise crítica no nº5 da revista Flauta de Luz. Termino com um excerto desse meu texto: “Quando se põem em causa as narrativas dos utopistas da tecnociência é comum ouvirem-se acusações de fundamentalismo tecno-pessimista, catastrofista, eco-conservador ou neo-luddita, que ao impedir a liberdade e o progresso da ciência conduziria a um retrocesso civilizacional e à estagnação social. É também usual ouvir invocar que a mudança e o risco são os motores da evolução (…). Nada se pode interpor ao ímpeto imparável do progresso! Mas não se trata de defender uma posição castradora e limitadora da liberdade e curiosidade dos cientistas, nem tão pouco de pôr em causa as virtudes da ciência como forma de conhecimento e de deslumbramento. Trata-se, isso sim, de questionar a recusa obstinada, mas de potenciais consequências desastrosas para a civilização humana, em gerir as consequências éticas e sociais das criações da ciência e da tecnologia, procurando zelar não só pelo bem-estar de todos os membros da sociedade, presentes e vindouros, como também pela sustentabilidade dos diferentes ecossistemas dos quais dependemos. Essa responsabilidade deve ser assumida e transformada numa prática política democrática de gestão dos comuns baseada no cuidado e na prudência.”

* Nota: A palavra Ciência pode ser entendida como o corpo de conhecimento sobre o mundo resultante da prática científica, mas refere-se muitas vezes também ao conjunto de ferramentas utilizadas pelas diferentes áreas científicas para adquirir conhecimento, apelidado mais comummente de método científico. Aqui usá-la-ei no sentido de via de conhecimento, estando implícito que abrange um conjunto de áreas e de práticas científicas que deviam ser mais apropriadamente designadas pelo plural, ciências.