Santa Sé: IA é uma oportunidade, mas o homem pode se tornar escravo das máquinas

janeiro 28, 2025 / no comments

Santa Sé: IA é uma oportunidade, mas o homem pode se tornar escravo das máquinas

 

A Inteligência Artificial não deve ser considerada como uma pessoa, não deve ser divinizada, nem substituir as relações humanas. Deve ser utilizada “apenas como um instrumento complementar à inteligência humana”. Os alertas do Papa sobre a Inteligência Artificial nos últimos anos servem de guia para a Antiqua et Nova (em referência à “sabedoria”, antiga e nova), a nota sobre a relação entre inteligência artificial e inteligência humana, fruto da reflexão mútua entre o Dicastério para a Doutrina da Fé e o Dicastério para a Cultura e a Educação. O documento é dirigido a pais, professores, sacerdotes, bispos e a todos os que são chamados a educar e transmitir a fé, mas também àqueles que compartilham a necessidade de um desenvolvimento científico e tecnológico “a serviço da pessoa e do bem comum” [5]. Publicado hoje, 28 de janeiro, o texto foi aprovado pelo Papa Francisco.

Em 117 parágrafos, a Antiqua et Nova destaca os desafios e as oportunidades do desenvolvimento da Inteligência Artificial (IA) nos campos da educação, economia, trabalho, saúde, relações internacionais e interpessoais, além de contextos de guerra. Neste último, por exemplo, as potencialidades da IA – adverte a Nota – poderiam aumentar os recursos bélicos “muito além do alcance do controle humano”, acelerando “uma corrida desestabilizadora por armamentos com consequências devastadoras para os direitos humanos” [99].

Perigos e progressos

Mais detalhadamente, o documento enumera com equilíbrio ponderado os perigos da IA, mas também os progressos, que, aliás, incentiva como “parte da colaboração” do homem com Deus “para levar à perfeição a criação visível” [2]. A preocupação, no entanto, é grande e decorre de todas as inovações cujos efeitos ainda são imprevisíveis, inclusive naquilo que, no momento, parece inofensivo, como a geração de textos e imagens.

Distinguir entre IA e inteligência humana

Portanto, são considerações éticas e antropológicas que estão no centro da reflexão dos dois Dicastérios, que dedicam vários parágrafos da Nota à distinção “decisiva” entre Inteligência Artificial e inteligência humana. Esta última “se exerce nas relações” [18], é modelada por Deus e “é moldada por uma miríade de experiências vividas na corporeidade”. A IA “não possui a capacidade de evoluir nesse sentido” [31]. A visão que ela oferece é “funcionalista”, avaliando as pessoas apenas com base em trabalhos e resultados, enquanto a dignidade humana é imprescindível e permanece sempre intacta. Mesmo em “uma criança ainda não nascida”, em “uma pessoa em estado não consciente” ou em “um idoso em sofrimento” [34]. É, portanto, “enganoso” usar a própria palavra “inteligência” em referência à IA: ela não é “uma forma artificial de inteligência”, mas “um dos seus produtos” [35].

Poder nas mãos de poucos

E, como todo produto do engenho humano, também a IA pode ser direcionada para “fins positivos ou negativos”, destaca a Antiqua et Nova. Não se nega que a Inteligência Artificial possa introduzir “inovações importantes” em diversos campos [48], mas há o risco de agravar situações de marginalização, discriminação, pobreza, “divisão digital” e desigualdades sociais [52]. O que levanta “preocupações éticas” em especial é o fato de que “a maior parte do poder sobre as principais aplicações da IA esteja concentrada nas mãos de poucas empresas poderosas” [53], permitindo que essa tecnologia seja manipulada para “lucros pessoais ou corporativos” ou para “orientar a opinião pública em favor dos interesses de um setor” [53].

Guerra

A Nota examina, em seguida, os vários aspectos da vida em relação à IA. Inevitável é a referência à guerra. As “capacidades analíticas” da IA poderiam ser utilizadas para ajudar as nações a buscar paz e segurança, mas um “grave motivo de preocupação ética” são os sistemas de armas autônomas e letais, capazes de “identificar e atingir alvos sem intervenção humana direta” [100]. O Papa pediu com urgência o banimento de seu uso, como afirmou no G7 na Puglia: “Nenhuma máquina jamais deveria decidir tirar a vida de um ser humano”. Máquinas capazes de matar com precisão de forma autônoma e outras aptas à destruição em massa representam uma verdadeira ameaça para “a sobrevivência da humanidade ou de regiões inteiras” [101]. Essas tecnologias “conferem à guerra um poder destrutivo incontrolável, atingindo muitos civis inocentes, sem poupar sequer as crianças”, denuncia a Antiqua et Nova. Para evitar que a humanidade caia em “espirais de autodestruição”, é indispensável “adotar uma posição firme contra todas as aplicações da tecnologia que ameaçam intrinsecamente a vida e a dignidade da pessoa humana”.

Relações humanas

Sobre as relações humanas, o documento observa que a IA pode, sim, “favorecer as conexões”, mas, ao mesmo tempo, levar a “um isolamento prejudicial” [58]. A “antropomorfização da IA” também apresenta problemas específicos para o desenvolvimento das crianças, incentivadas a entender “as relações humanas de maneira utilitarista”, como ocorre com os chatbots [60]. É “errado” representar a IA como uma pessoa, e é “uma grave violação ética” utilizá-la para fins fraudulentos. Da mesma forma, “usar a IA para enganar em outros contextos – como na educação ou nas relações humanas, incluindo a esfera da sexualidade – é profundamente imoral e exige vigilância rigorosa” [62].

Economia e trabalho

Essa mesma vigilância é exigida no campo econômico-financeiro. Em particular, no âmbito do trabalho, destaca-se que, se por um lado a IA tem “potencial” para aumentar competências e produtividade ou criar novos empregos, por outro, pode “desqualificar os trabalhadores, submetê-los a uma vigilância automatizada e relegá-los a funções rígidas e repetitivas” [67], a ponto de “sufocar” toda capacidade inovadora. “Não se deve buscar substituir cada vez mais o trabalho humano pelo progresso tecnológico: ao fazê-lo, a humanidade prejudicaria a si mesma”, ressalta a Nota [70].

Saúde

Amplo espaço é dedicado ao tema da saúde. Embora a IA possua um enorme potencial em diversas aplicações no campo médico (como o auxílio em diagnósticos), caso venha a substituir a relação médico-paciente, deixando a interação apenas para as máquinas, corre o risco de “agravar aquela solidão que frequentemente acompanha a doença”. Além disso, a otimização dos recursos não deve “prejudicar os mais vulneráveis” ou criar “formas de preconceito e discriminação” [75], que reforcem uma “medicina para os ricos”, em que pessoas com recursos financeiros usufruem de ferramentas avançadas de prevenção e informações médicas personalizadas, enquanto outros lutam para ter acesso até mesmo aos serviços básicos.

Educação

Riscos também são destacados no campo da educação. Se utilizada de forma prudente, a IA pode melhorar o acesso à educação e oferecer “respostas imediatas” aos estudantes [80]. O problema é que muitos programas “se limitam a fornecer respostas em vez de incentivar os estudantes a buscá-las por conta própria ou a escreverem seus próprios textos”; isso leva à perda do hábito de acumular informações ou desenvolver um pensamento crítico [82]. Sem esquecer a quantidade de “informações distorcidas ou artificiais” ou “conteúdos imprecisos” que alguns programas podem gerar, legitimando, assim, as fake news [84].

Fake News e Deepfake

Com relação às fake news, o documento destaca o sério risco de a IA “gerar conteúdos manipulados e informações falsas” [85], alimentando uma “alucinação” de IA, com conteúdos não verídicos que aparentam ser reais. Ainda mais preocupante é quando tais conteúdos fictícios são usados intencionalmente para fins de manipulação. Por exemplo, quando imagens, vídeos e áudios deepfake (representações alteradas ou geradas por algoritmos) são divulgados intencionalmente para “enganar ou prejudicar” [87]. O apelo, portanto, é para que se tenha sempre o cuidado de “verificar a veracidade” do que é divulgado e para evitar, em qualquer circunstância, “a disseminação de palavras e imagens degradantes para o ser humano”, excluindo “o que alimenta o ódio e a intolerância, desvaloriza a beleza e a intimidade da sexualidade humana e explora os fracos e indefesos” [89].

Privacidade e controle

Sobre privacidade e controle, a Nota evidencia que alguns tipos de dados podem chegar a tocar a intimidade da pessoa, “talvez até mesmo sua consciência” [90]. Atualmente, os dados são adquiridos com uma quantidade mínima de informações, e o perigo é transformar tudo “em uma espécie de espetáculo que pode ser espionado, vigiado” [92]. Além disso, “a vigilância digital pode ser utilizada para exercer controle sobre a vida dos fiéis e sobre a expressão de sua fé” [90].

Casa Comum

No que diz respeito à Criação, as aplicações da IA são consideradas “promissoras” para melhorar a relação com a casa comum. Basta pensar nos modelos para a previsão de eventos climáticos extremos, na gestão de operações de socorro ou no suporte à agricultura sustentável [95]. Ao mesmo tempo, os modelos atuais de IA e os sistemas de hardware que os sustentam requerem “enormes quantidades de energia e água e contribuem de forma significativa para as emissões de CO₂, além de consumir recursos de forma intensiva”. É, portanto, um tributo “pesado” que se exige do meio ambiente: “O desenvolvimento de soluções sustentáveis é vital para reduzir seu impacto sobre a casa comum”.

O relacionamento com Deus

“A presunção de substituir Deus por uma obra de suas próprias mãos é idolatria”: a Nota cita as Sagradas Escrituras para alertar que a IA pode se revelar “mais sedutora do que os ídolos tradicionais” [105]. Lembra, portanto, que ela não é nada mais do que “um pálido reflexo” da humanidade: “Não é a IA que será divinizada e adorada, mas sim o ser humano, que, dessa forma, torna-se escravo de sua própria criação”. Daqui deriva uma recomendação final: “A IA deve ser utilizada apenas como um instrumento complementar à inteligência humana e não para substituir sua riqueza” [112].

Fonte: Vatican News

O Papa: que o homem não se torne alimento para algoritmos, a comunicação deve permanecer plenamente humana

janeiro 24, 2024 / no comments

O Papa: que o homem não se torne alimento para algoritmos, a comunicação deve permanecer plenamente humana

A mensagem de Francisco para o Dia Mundial das Comunicações Sociais é dedicada ao tema da Inteligência Artificial e a sabedoria do coração. Segundo o Pontífice, “apenas recuperando uma sabedoria do coração é que poderemos ler e interpretar a novidade do nosso tempo e descobrir o caminho para uma comunicação plenamente humana”.

 

Vatican News

Foi divulgada, nesta quarta-feira (24/01), a mensagem do Papa Francisco para o 58° Dia Mundial das Comunicações Sociais intitulada “Inteligência artificial e sabedoria do coração: para uma comunicação plenamente humana”.

Francisco inicia o texto, ressaltando que “a rápida difusão de maravilhosas invenções, cujo funcionamento e potencialidades são indecifráveis para a maior parte de nós, suscita um espanto que oscila entre entusiasmo e desorientação e põe-nos inevitavelmente diante de questões fundamentais: O que é então o homem, qual é a sua especificidade e qual será o futuro desta nossa espécie chamada homo sapiens na era das inteligências artificiais? Como podemos permanecer plenamente humanos e orientar para o bem a mudança cultural em curso?”

A sabedoria que dá gosto à vida

Neste tempo que corre o risco de ser rico em técnica e pobre em humanidade, a nossa reflexão só pode partir do coração humano“, escreve ainda o Pontífice. “Somente dotando-nos de um olhar espiritual, apenas recuperando uma sabedoria do coração é que poderemos ler e interpretar a novidade do nosso tempo e descobrir o caminho para uma comunicação plenamente humana”, ressalta.

Segundo o Papa, “a sabedoria do coração é a virtude que nos permite combinar o todo com as partes, as decisões com as suas consequências, as grandezas com as fragilidades, o passado com o futuro, o eu com o nós“.

Esta sabedoria do coração “é um dom do Espírito Santo, que permite ver as coisas com os olhos de Deus, compreender as interligações, as situações, os acontecimentos e descobrir o seu sentido. Sem esta sabedoria, a existência torna-se insípida, pois é precisamente a sabedoria que dá gosto à vida: a sua raiz latina sapere associa-a ao sabor“.

Cada coisa nas mãos do homem torna-se oportunidade ou perigo

De acordo com Francisco, “não podemos esperar esta sabedoria das máquinas. Embora o termo inteligência artificial já tenha suplantado o termo mais correto utilizado na literatura científica de machine learning (aprendizagem automática), o próprio uso da palavra «inteligência» é falacioso. É certo que as máquinas têm uma capacidade imensamente maior que os seres humanos de memorizar os dados e relacioná-los entre si, mas compete ao homem, e só a ele, descodificar o seu sentido. Não se trata, pois, de exigir das máquinas que pareçam humanas; mas de despertar o homem da hipnose em que cai devido ao seu delírio de onipotência, crendo-se sujeito totalmente autônomo e autorreferencial, separado de toda a ligação social e esquecido da sua condição de criatura“.

O Papa escreve ainda na mensagem que “cada coisa nas mãos do homem torna-se oportunidade ou perigo, segundo a orientação do coração. Os sistemas de inteligência artificial podem contribuir para o processo de libertação da ignorância e facilitar a troca de informações entre diferentes povos e gerações. Por exemplo, podem tornar acessível e compreensível um patrimônio enorme de conhecimentos, escrito em épocas passadas, ou permitir às pessoas comunicarem em línguas que lhes são desconhecidas”.

Ao mesmo tempo “podem ser instrumentos de «poluição cognitiva», alteração da realidade através de narrações parcial ou totalmente falsas, mas acreditadas – e partilhadas – como se fossem verdadeiras. Basta pensar no problema da desinformação que enfrentamos, há anos, no caso das fake news e que hoje se serve da deep fake, isto é, da criação e divulgação de imagens que parecem perfeitamente plausíveis, mas são falsas ou mensagens-áudio que usam a voz de uma pessoa, dizendo coisas que ela própria nunca disse. A simulação, que está na base destes programas, pode ser útil em alguns campos específicos, mas torna-se perversa quando distorce as relações com os outros e com a realidade”.

Efeitos socialmente injustos dos sistemas de inteligência artificial 

Segundo o Papa, “é importante ter a possibilidade de perceber, compreender e regulamentar instrumentos que, em mãos erradas, poderiam abrir cenários negativos. Os algoritmos, como tudo o mais que sai da mente e das mãos do homem, não são neutros. Por isso é necessário prevenir propondo modelos de regulamentação ética para contornar os efeitos danosos, discriminadores e socialmente injustos dos sistemas de inteligência artificial e contrastar a sua utilização para a redução do pluralismo, a polarização da opinião pública ou a construção do pensamento único”.

A esse propósito, Francisco exorta a “Comunidade das Nações a trabalhar unida para adotar um tratado internacional vinculativo, que regule o desenvolvimento e o uso da inteligência artificial nas suas variadas formas“. “Entretanto, como em todo o âmbito humano, não é suficiente a regulamentação”, sublinha.

Não reduzir as pessoas a dados

O Papa escreve em sua mensagem que “somos chamados a crescer juntos, em humanidade e como humanidade. O desafio que temos diante de nós é realizar um salto de qualidade para estarmos à altura de uma sociedade complexa, multiétnica, pluralista, multirreligiosa e multicultural. Cabe a nós questionar-nos sobre o progresso teórico e a utilização prática destes novos instrumentos de comunicação e conhecimento. As suas grandes possibilidades de bem são acompanhadas pelo risco de que tudo se transforme em um cálculo abstrato que reduz as pessoas a dados, o pensamento a um esquema, a experiência a um caso, o bem ao lucro, com o risco sobretudo de que se acabe por negar a singularidade de cada pessoa e da sua história, dissolvendo a realidade concreta numa série de dados estatísticos“.

“Não é aceitável que a utilização da inteligência artificial conduza a um pensamento anônimo, a uma montagem de dados não certificados, a uma desresponsabilização editorial coletiva. A representação da realidade por big data (grandes dados), embora funcional para a gestão das máquinas, implica na realidade uma perda substancial da verdade das coisas, o que dificulta a comunicação interpessoal e corre o risco de danificar a nossa própria humanidade. A informação não pode ser separada da relação existencial: implica o corpo, o situar-se na realidade; pede para correlacionar não apenas dados, mas experiências; exige o rosto, o olhar, a compaixão e ainda a partilha.”

A este propósito, Francisco pensa “na narração das guerras e naquela «guerra paralela» que se trava através de campanhas de desinformação”. “Penso em tantos repórteres que ficam feridos ou morrem no local em efervescência para nos permitir a nós ver o que viram os olhos deles. Pois só tocando pessoalmente o sofrimento das crianças, das mulheres e dos homens é que poderemos compreender o caráter absurdo das guerras”, escreve ele.

“A utilização da inteligência artificial poderá proporcionar uma contribuição positiva no âmbito da comunicação, se não anular o papel do jornalismo no local, antes pelo contrário se o apoiar; se valorizar o profissionalismo da comunicação, responsabilizando cada comunicador; se devolver a cada ser humano o papel de sujeito, com capacidade crítica, da própria comunicação”, ressalta o Pontífice.

Construir novas castas baseadas no domínio informativo

Segundo o Papa, “a inteligência artificial acabará por construir novas castas baseadas no domínio informativo, gerando novas formas de exploração e desigualdade ou se, pelo contrário, trará mais igualdade, promovendo uma informação correta e uma maior consciência da transição de época que estamos a atravessando, favorecendo a escuta das múltiplas carências das pessoas e dos povos, num sistema de informação articulado e pluralista. De um lado, vemos assomar o espectro de uma nova escravidão, do outro uma conquista de liberdade; de um lado, a possibilidade de que uns poucos condicionem o pensamento de todos, do outro a possibilidade de que todos participem na elaboração do pensamento”.

“A resposta não está escrita; depende de nós. Compete ao homem decidir se há de tornar-se alimento para os algoritmos ou nutrir o seu coração de liberdade, sem a qual não se cresce na sabedoria. Esta sabedoria amadurece valorizando o tempo e abraçando as vulnerabilidades. Cresce na aliança entre as gerações, entre quem tem memória do passado e quem tem visão de futuro”, conclui Francisco.