16Não é segredo que a Inteligência Artificial está a mudar a maneira como vivemos, trabalhamos, amamos e nos divertimos. Em Eu, Humano (edição Ideias de Ler), o psicólogo Tomas Chamorro-Premuzic reflete sobre o potencial da IA para mudar as nossas vidas para melhor, mas também para acentuar as piores características do ser humano, tornando-o mais distraído, egoísta, tendencioso, narcisista, autoritário, previsível e impaciente. De acordo com o autor, o caminho não tem de ser este. "Para tal, teremos de redobrar a curiosidade, adaptabilidade e inteligência emocional, e confiar na empatia, na humildade e no autocontrolo, virtudes em vias de extinção no dizer de Tomas Chamorro-Premuzic".
"À medida que a IA se torna mais inteligente e mais humana, as nossas sociedades, as nossas economias e a nossa humanidade sofrerão as mudanças mais dramáticas desde a Revolução Industrial. Algumas irão melhorar a nossa espécie. Outras poderão desumanizar-nos e tornar-nos mais semelhantes a máquinas na interação com os outros. Cabe-nos a nós adaptarmo-nos e decidirmos como queremos viver e trabalhar", lemos na apresentação ao livro.
Do livro, publicamos o excerto abaixo.
Como a era da IA nos exacerba a ignorância, os preconceitos, e a irracionalidade
É inútil tentar-se convencer um homem a sair de uma coisa onde ele nunca foi convencido a entrar.
Jonathan Swift
Os humanos são em geral conhecidos pela sua racionalidade, pensamento lógico, raciocínio inteligente e tomada de decisões – pelo menos de acordo com os humanos. Essas qualidades contribuíram para um progresso inegável nos campos da ciência, bem como para os avanços na engenharia, na medicina e mesmo na IA. Mas sejamos honestos. Os humanos também são estúpidos, irracionais e tendenciosos. Isso é em particular verdadeiro quando tentamos ganhar discussões, impressionar os outros, tomar decisões rápidas e impulsivas, e sentirmo-nos contentes com a qualidade das nossas decisões (e, mais geralmente, com nós mesmos). Décadas de investigação em economia comportamental mostram que os humanos são dotados de uma notável gama de preconceitos de raciocínio que os ajudam a navegar no mar da complexidade e a agilizar ou a acelerar as suas interações com o mundo e com os outros sem lhes sobrecarregar a capacidade mental. Nas palavras da célebre neurocientista Lisa Feldman Barrett, «o cérebro não é para pensar». Os nossos cérebros evoluíram para fazermos previsões rápidas sobre o mundo de modo a melhorarmos as nossas adaptações, economizando e preservando ao mesmo tempo o máximo de energia possível. E quanto mais complexas as coisas se tornam, mais nós tentamos fazer isso e simplificá-las.
Os usos mais vulgarizados da IA contribuem mais para o avanço da nossa ignorância do que do nosso conhecimento, transformando o mundo num lugar mais disparatado e preconceituoso. Pensemos em todas as formas como as redes sociais jogam com os nossos preconceitos de confirmação. Os algoritmos sabem do que gostamos e fornecem-nos notícias que tendem a adequar-se à visão do mundo que estabelecemos. Por mais expansiva que seja a internet, com as suas diversas perspetivas e vozes, todos nós funcionamos dentro das nossas próprias bolhas de filtro. Apesar de todo o tempo que dedicamos a determinar se a IA é de facto «inteligente», parece haver uma característica inquestionável a seu respeito, a saber: que o que ela visa é sobretudo aumentar a autoestima dos seres humanos e não a inteligência. Os algoritmos de IA funcionam como uma espécie de orador motivacional ou de inspirador de vida, um agente do reforço da confiança que foi concebido para nos fazer sentir bem com nós próprios, inclusive com a nossa própria ignorância, que eles nos ajudam a ignorar. Quando os algoritmos de IA nos remetem histórias que queremos ouvir (e acreditar), aumentam a nossa confiança sem aumentarem a nossa competência. Parafraseando o comediante Patton Oswalt, na década de 60 colocámos pessoas na Lua com computadores menos potentes do que uma calculadora. Hoje em dia todos trazem um supercomputador no bolso e não sabem ao certo se o mundo é plano nem se as vacinas estarão cheias de veneno enfeitiçado.
A história moderna da inteligência humana é em grande parte uma jornada apologética de auto-humilhação. Começámos com a premissa de que as pessoas não são apenas racionais, mas implacavelmente pragmáticas e utilitárias, pelo que podem sempre esperar vir a maximizar a utilidade e as recompensas das suas decisões e avaliar de forma lógica os prós e os contras, acabando por escolher aquilo que é melhor para elas. Essa foi a fase do Homo economicus ou homem racional. Os humanos eram vistos como criaturas de lógica, objetivas e eficientes, que agiriam sempre de maneiras inteligentes. Contudo, o movimento da economia comportamental destruiu esse mito, apresentando uma longa lista de exceções a tal regra, transformando o preconceito na norma e a objetividade na exceção, ou mesmo numa utopia. Claro que podemos ser capazes de agir de forma racional, mas na maioria das vezes agiremos por instinto e deixaremos que sejam os nossos preconceitos a orientar as nossas decisões, como mostra a inumerável lista de atalhos mentais ou de heurísticas que tornam a irracionalidade um resultado muito mais provável do que a racionalidade.
Em vez de seguirmos a lógica de um argumento ou o rasto dos indícios, encaminhamos simplesmente o argumento ou os indícios para um resultado preferido. Na maioria das vezes as pessoas agem de maneiras irracionais, ainda que estas continuem a ser previsíveis. Não agimos como o promotor imparcial de uma investigação, mas como o advogado deacusação do réu culpado, que neste caso é o nosso ego. Embora este ponto de vista ainda represente o atual consenso sobre ainteligência humana, as coisas são mais matizadas do que foi sugerido pelos economistas comportamentais. Se olharmos para a moderna psicologia da personalidade, é nítido que as pessoas são previsivelmente irracionais, mas ainda assim é preciso descodificar os padrões únicos de irracionalidade de cada uma delas para se prever e compreender o seu comportamento. Por outras palavras, a estupidez humana – mais do que a inteligência humana – surge sob muitas configurações e formas diferentes, que podemos atribuir à personalidade: as tendências e os preconceitos característicos que fazem de cada um de nós o que somos. O único preconceito universal é presumirmos ser menos tendenciosos do que os outros.
Poderá a IA adquirir uma personalidade? Se isso implicar um certo estilo de decisões tendenciosas, ou um padrão recorrente mas característico de adaptações preferidas a situações específicas, então a resposta é um definitivo sim. Por exemplo, poderíamos imaginar um chatbot neurótico, propenso a fazer interpretações pessimistas, autocríticas e incertas da realidade, que ansiasse uma excessiva validação por parte dos outros, e menosprezasse o retorno positivo porque as coisas não podem de modo algum ser tão boas como parecem. Esse chatbot – chamemos-lhe neurotico.ai – teria dominado a arte da síndrome do impostor e continuado a preparar-se para as tarefas universitárias e laborais mais do que era necessário, ao mesmo tempo que continuava insatisfeito e hipercrítico quanto às suas realizações. Ou um algoritmo de aprendizagem mecânica dotado de elevada impulsividade, propenso a fazer interpretações demasiado confiantes dos dados e a extrair ousadas e precipitadas conclusões a partir de dados muito limitados, de factos insuficientes, e assim por diante. Talvez essa IA excessivamente confiante acabasse por ser recompensada por essas inferências descuidadas e demasiado otimistas, de forma muito semelhante ao modo como os executivos excessivamente confiantes e narcisistas são celebrados pela sua arrogância e por ficarem, de forma injustificada, satisfeitos consigo mesmos, o que reforça tais preconceitos delirantes. As pessoas tendem a seguir e a respeitar os outros quando os consideram inteligentes, o que infelizmente é influenciado por uma vasta gama de fatores além da inteligência que de facto detenham – a confiança delirante está no topo da lista. Nesse sentido, se a IA conseguir emular os humanos, poderemos acabar por confundir o excesso de confiança dos algoritmos com competência.
Também poderíamos imaginar alguma forma de IA hostil ou egoísta que compensasse a sua baixa autoestima denegrindo outras pessoas e fazendo avaliações negativas dos outros, ainda que isso signifique uma compreensão mais pobre da realidade. Isto poderia incluir chatbots verdadeiramente racistas ou sexistas que se orgulhassem de fazer comentários depreciativos sobre determi- nados grupos demográficos para se sentirem melhor em relação àqueles a que pertencem, embora isso talvez exigisse a atribuição de um género, raça ou nacionalidade à identidade do chatbot. E talvez pudéssemos até conceber uma IA demasiado curiosa, inventiva e criativa que fizesse associações invulgares e se concentrasse mais no estilo do que na substância, imitando as tendências de pensamento poético dos artistas em vez de implantar um pensamento matemático rígido, e assim por diante.
Você é mais tendencioso do que supõe
A maioria de nós imagina-se menos tendenciosa do que é, e, claro, menos tendenciosa do que os outros. Os liberais acham os conservadores vítimas involuntárias de informação errada e de desinformação. Os conservadores consideram os liberais uma ameaça à liberdade de expressão. A maioria de nós acha que não tem preconceitos raciais, ao passo que os outros têm. Ou consideramos ver o mundo como ele de facto é, enquanto os outros o veem através de lentes cor de rosa. Isto é falso. Se você discorda a sério, provavelmente está só a enganar-se a si mesmo. Caso perguntássemos a cem pessoas se são tendenciosas, provavelmente menos de 10% dos entrevistados concordariam com isso. No entanto, caso perguntássemos à mesma centena de pessoas se os outros são preconceituosos, 90% delas diria que sim.
Podemos pensar que o nosso intelecto nos leva a agir de formas lógicas ou racionais, mas é a nossa vontade que comanda. Nas célebres palavras do filósofo alemão Arthur Schopenhauer: «A vontade é o cego possante que carrega aos ombros o coxo que consegue ver.» Apropriadamente, Schopenhauer também escreveu que «O mundo é a minha ideia», uma afirmação que sintetiza a ascensão da «subjetividade» como princípio filosófico fundamental e levou os seus colegas académicos, em geral sérios, a ponderar: «O que terá a esposa dele a dizer disto?»
Uma das descobertas mais antigas da psicologia social é que as pessoas interpretam os acontecimentos bem-sucedidos como vitórias pessoais, mas atribuem a culpa pelos acontecimentos fracassados a circunstâncias externas e incontroláveis, como a sorte ou a injustiça cósmica. É sempre a nossa aptidão ou talento quando corre bem, ou pelo menos o nosso trabalho árduo e a dedicação, mas o mau carma, a injustiça ou as aberrações aleatórias da natureza quando isso não acontece.
Na verdade, as investigações mostram que a grande maioria de nós se entrega àquilo que é conhecido como o viés de otimismo. Como afirma Tali Sharot, minha colega da UCL: «Quando se trata de prever o que nos irá acontecer amanhã, na próxima semana ou daqui a cinco anos, sobrestimamos a probabilidade de acontecimentos positivos e subestimamos a probabilidade de acontecimentos negativos. Por exemplo, subestimamos as nossas probabilidades de virmos a divorciar-nos, a vermo-nos envolvidos num acidente rodoviário ou a sofrermos de cancro.»
No entanto, a maioria de nós não se vê assim. O que não surpreende, já que os humanos têm uma capacidade única para a autoilusão e pouco há que se possa fazer para nos persuadir do contrário. Temos uma grande lacuna de consciência:a maioria de nós ignora deliberadamente as nossas propensões, preconceitos e pontos cegos. Há, contudo, outras más notícias: mesmo que passemos a estar cientes das nossas próprias limitações, talvez não sejamos capazes de resolver o problema. Basta ver as intervenções modernas para eliminar os preconceitos no local de trabalho, em especial o treino inconsciente de preconceitos, que está muito na moda nos círculos de recursos humanos. Como mostra uma recente meta-análise de quase quinhentos estudos, com um grande esforço é possível produzir mudanças muito pequenas em medidas implícitas ou inconscientes de atitudes e preconceitos, mas tais mudanças não têm qualquer impacto significativo no comportamento. Como é óbvio, aqueles que desenvolvem esses programas têm boas intenções, tal como as equipas que os acolhem dentro das organizações. Porém, simplesmente não funcionam.
Em primeiro lugar, eles pregam para o coro, ou apelam àqueles que se consideram «de espírito aberto», «liberais» ou«não tendenciosos». No entanto, há uma pequena possibilidade de tais descrições serem verdadeiras; em geral são apenas estratégias ingénuas e excessivamente confiantes de autoilusão. Elas levam-nos a culpar os outros. E quando apontamos o dedo aos outros por serem tendenciosos, estamos a insinuar que o problema são eles, e não nós ou o sistema.
Se quisermos controlar o nosso comportamento, poderá ser benéfico compreendermos não apenas as nossas atitudes, mas também o modo como os outros poderão avaliá-las e quais os comportamentos que irão examinar para inferir as nossas crenças. Todavia, a questão é que esses programas de eliminação de preconceitos assumem ingenuamente que a consciência dos nossos preconceitos nos levará a agir com um espírito mais aberto. Se ao menos assim fosse. E, ao pensar dessa forma, não conseguimos promover a responsabilização e a justiça, ao mesmo tempo que inibimos a nossa capacidade para evoluir. É também por isso que os jantares em família podem ser tão frustrantes. Não importa quão louco esteja o nosso pai. Nenhum grau de evidência ou prova lhe abalará os valores profundos ou as crenças fundamentais. Além disso, ele irá por certo contrariar os nossos factos com os seus próprios factos. É essa a ironia que define os nossos tempos. Quantos mais forem os dados e as informações a que pudermos ter acesso, mais fácil será interpretá-los mal ou escolher os dados que confirmem as nossas crenças. Foi assim que diferentes países ou líderes fizeram interpretações completamente diferentes dos dados da pandemia, desde o «Isto é como se fosse uma gripe» até às previsões incorretas sobre o efeito dela na economia, no mercado imobiliário e no bem-estar mental.
Se quisermos de facto tornar-nos mais racionais, mais inclusivos e menos tendenciosos, deveríamos preocupar-nos menos com o que realmente pensamos ou aquilo em que acreditamos, e estarmos mais abertos a aceitar, ou a pelo menos tentar entender, aquilo em que os outros acreditam. Não adianta tentarmos policiar os pensamentos ou as ideias das pessoas. Em vez disso, deveríamos tentar comportar-nos de maneira afetuosa, ou pelo menos bem-educada. Se os outros não forem alvo de ódio, é menos provável que ele se volte para cá. As investigações indicam que mesmo que tenhamos de ser forçados a comportar-nos de maneiras pró-sociais ou amáveis com os outros, isso afetará positivamente a nossa disposição e a nossa auto-estima, o que por sua vez nos proporciona um espírito mais aberto, e que os atos aleatórios de amabilidade podem aumentar a nossa empatia e altruísmo.
A amabilidade obriga-nos a reformular a visão que temos de nós mesmos e a reenquadrar-nos, atendo-nos a fundamentos e a ideais morais mais elevados. Assim, mesmo quando fazemos doações a instituições de caridade com o principal propósito de parecermos generosos para com os outros, acabaremos por ver-nos como boas pessoas, o que por sua vez promoverá bons comportamentos daí em diante. Embora a maioria dos ecossistemas digitais, em particular as redes sociais, estimulem reações impulsivas às ações dos outros, que resultam em muita hostilidade, assédio e intimidação, em geral é mais fácil manifestar amabilidade e consideração online do que offline. Desde logo, as oportunidades para parar, refletir e exercer autodomínio são muito maiores do que na interação pessoal. E o incentivo é maior: tudo o que fizermos online ficará gravado e registado para sempre, e o mundo inteiro (bom, pelo menos o nosso mundo) está a ver. Por isso, tudo o que é preciso fazer é evitarmos reagir ou responder até termos algo de positivo para dizer – eu sei, é mais fácil dizê-lo do que fazê-lo.
Poderá a IA ajudar-nos?
Curiosamente, a IA poderá ser capaz de nos ajudar na luta contra o preconceito. Uma das suas maiores utilidades potenciais é reduzir os preconceitos humanos nos processos de decisão, algo que a sociedade moderna parece estar mesmo interessada em fazer.
A IA foi preparada com sucesso para fazer aquilo que os humanos em geral se esforçam por fazer, ou seja, aceitar e argumentar a partir de diferentes perspetivas, incluindo assumir uma visão oposta ou examinar contra-argumentos em processos jurídicos. Em geral, podemos pensar na IA como um mecanismo de deteção de padrões, uma ferramenta que identifica ligações entre causas e efeitos, entradas e saídas. Além disso, ao contrário da inteligência humana, a IA não tem qualquer interesse em jogo: ela é, por definição, neutra, desprovida de parcialidades e objetiva. Isso torna-a uma poderosa arma para expor preconceitos, uma vantagem fundamental da IA que raramente é debatida. Eis alguns exemplos.
Exemplo 1: Um sítio de encontros românticos online com milhões de utilizadores que relatam as suas preferências românticas (e sexuais) preparando constantemente os algoritmos para preverem as suas preferências usa a IA para descobrir aquilo para que a maioria dos homens (heterossexuais ou não) e das mulheres (heterossexuais ou não) em geral se «otimizam». Ao longo desse processo,a IA melhora as recomendações a fim de os utilizadores terem de dedicar menos tempo a escolher um potencialencontro ou parceiro.
Exemplo 2: Um motor de pesquisa online que fornece às pessoas conteúdos (notícias, média, filmes) recorre à IA para detetar as preferências dos espectadores, proporcionando-lhes simplesmente o mesmo de que dispõem outras pessoas semelhantes, tanto em aspetos demográficos como quanto a diferentes preferências. Aprende depressa a proporcionar com eficácia às pessoas o conteúdo que elas irão mais provavelmente consumir e a que são menos propensas a resistir.
Exemplo 3: Um empregador muito procurado que recebe por ano milhões de candidaturas a empregos utiliza a IA para comparar as características dos candidatos com as dos seus funcionários, otimizando-a para um elevado grau de semelhança entre o perfil dos novos candidatos a empregos e o dos funcionários atuais ou em funções que foram bem-sucedidos no passado. No essencial, quanto mais nos parecermos com as pessoas que historicamente se saíram bem na empresa, maior é a nossa probabilidade de ser selecionado para um emprego.
Tudo isto é ótimo. Contudo, é aqui que reside o problema. A IA e os sistemas mecânicos são apenas tão bons quanto aquilo que os alimenta. E se os dados de entrada que usamos forem tendenciosos ou corruptos (estávamos todos entusiasmados com os grandes dados até percebermos que eram acima de tudo dados maus e corruptos), aquilo que se obtém à saída – as decisões baseadas nos algoritmos – também será tendencioso. Pior ainda, em alguns cenários, que incluem tarefas técnicas com uso intensivo de dados, confiamos mais na IA do que nos outros humanos. Em certos casos esta poderá ser uma resposta válida. Todavia, deparamos com o problema se um sistema começar a despejar decisões tendenciosas e nós confiarmos cegamente nos resultados.
Esse problema também realça, no entanto, o maior potencial que a IA tem para eliminar as parcialidades no nosso mundo. Isso requer, porém, um entendimento – e disposição para reconhecer – de que o preconceito não é produto da IA, mas sim que apenas foi exposto pela IA. Para continuar com os meus exemplos: no primeiro, se não usarmos a IA ou os algoritmos para recomendar aos utilizadores do sítio de encontros online com quem se deveriam combinar, as preferências deles poderão continuar a ser tendenciosas (por exemplo, pessoas que pertençam à mesma etnia, que tenham a mesma idade, nacionalidade, estatuto socioeconómico ou características de atratividade, já para não falar da estatura). No segundo exemplo, a única alternativa a «dar às pessoas o que elas querem» (ler, ouvir e ver online) seria dar-lhes o que elas não querem, o que é uma evolução na consciência moral da publicidade e da comunicação segmentada, mas talvez não seja o melhor para a sobrevivência das empresas com fins lucrativos. No terceiro exemplo, abstermo-nos de usar a IA para selecionar e recrutar candidatos que se encaixem num certo perfil (digamos, engenheiros brancos de meia-idade) não impedirá as pessoas que se enquadram nessa tribo de virem a ter sucesso no futuro. Se o preconceito não desaparece só por deixarmos de usar a IA, então percebe-se onde ele reside de facto – no mundo real, na sociedade humana ou no sistema que pode ser exposto através do uso da IA.
Consideremos estes dois cenários: um gestor racista poderia mitigar o seu preconceito contratando pessoas com base na pontuação algorítmica delas durante uma entrevista de emprego, usando a IA para captar pistas relevantes na entrevista de modo a prever o futuro desempenho do candidato no cargo, ignorando ao mesmo tempo a sua raça, algo que os humanos acham impossível fazer. Este é um cenário ideal (embora num mundo ideal, como é evidente, não tivéssemosdesde logo um gestor racista).
Imaginemos agora um gestor não-racista que possa confiar num algoritmo para automatizar a pré-seleção de candidatos com base nas credenciais académicas destes, na sua anterior experiência profissional ou na probabilidade de serem promovidos. Isso pode parecer ótimo, mas poderia ser altamente problemático. Para que qualquer sistema ou algoritmo de IA aprenda, precisa de absorver conjuntos de dados que incluam etiquetas como «cancro» ou «não-cancro», «árvore» ou «semáforo», e «queque» ou «chihuahua». Porém, quando essas etiquetas são o produto de opiniões humanas subjetivas, como no caso do «bom funcionário» versus «mau funcionário», não deveria surpreender-nos que a IA venha a aprender os nossos preconceitos. Neste caso, a utilização do algoritmo poderá acabar por ter um impacto adverso sobre os candidatos minoritários, levando o gestor a fazer inadvertidamente seleções racistas e, para piorar a situação, a assumir que as decisões que tomou são objetivas.
Foi de facto assim que a IA falhou no passado – através da contaminação dos conjuntos de dados de preparação ou tomando decisões objetivas com base em decisões históricas injustas, irregulares e antiéticas. Assim, quando a Microsoft tentou fazer com que um chatbot do Twitter se ligasse à geração dos anos 80 e 90, os utilizadores (humanos) do Twitter depressa o treinaram para usar linguagem grosseira e tuítes pós-racistas e sexistas – não há prémios para quem conseguir adivinhar onde foi engendrado o lado negro, ou seja, na inteligência humana ou na artificial. O facto de os humanos se divertirem ensinando os chatbots a fazerem coisas antissociais, sexistas e racistas diz-nos claramente pouco sobre o lado negro da IA e muito sobre o lado negro da psicologia humana. Se a leitura deste parágrafo o levou a ir verificar os tuítes racistas e sexistas do chatbot Tay da Microsoft, a regra também é bastante válida para si. Da mesma forma, quando a Amazon decidiu abandonar o seu recrutamento por IA, devido a esta ter recomendado muito mais candidatos masculinos do que femininos para as vagas de emprego a preencher, é evidente que a eliminação da IA não eliminaria automaticamente o número desproporcionado de programadores masculinos que são bem-sucedidos em comparação com as funcionárias femininas.
Assim, a maioria dos casos mais notórios das histórias de terror da IA, ou das tentativas de transferir para máquinas a tomada de decisões humanas, assemelham-se a «disparar sobre o mensageiro». Os mesmos algoritmos indispensáveis para expor o preconceito de um sistema, organização ou sociedade são criticados por serem tendenciosos, racistas ou sexistas, só por fazerem um excelente trabalho a replicar as preferências ou os processos de decisão humanos. Se ao menos a IA pudesse converter as pessoas numa versão mais aberta de si mesmas, mostrando-lhes o que elas não querem (mas talvez precisem de) ouvir, decerto faria isso. Se eu fosse um libertário neoconservador, a IA poderia mostrar-me conteúdos socialistas ou progressistas de esquerda a fim de aumentar a minha empatia para com a esquerda ou de alterar a minha orientação política. Se os meus hábitos de ouvir música revelassem uma gama de preferências muito branca e de meia-idade, a IA poderia expor-me a música jovem, moderna, negra e urbana, e isso poderia modificar de forma sistemática os meus gostos.
Se a IA por si só apresentasse aos gestores de contratação pessoas categoricamente diferentes daquelas que contrataram no passado e modificasse as preferências desses gestores, então não falaríamos de uma IA de espírito aberto ou de uma IA ética, mas sobre humanos de espírito aberto ou éticos, inteligentes e curiosos. Sucede o mesmo para o inverso, que é o mundo real em que vivemos.
Os riscos de a IA falhar ou de os algoritmos se tornarem imprevisíveis poderão ser mitigados se os humanos éticos permanecerem no controlo, mas exacerbados quando os humanos carecerem de integridade ou de competência. Grande parte do resultado é determinado pela nossa compreensão (humana) do que estamos realmente a pedir à IA para fazer. Se, mais uma vez, pedirmos aos algoritmos que repliquem o statu quo e isso combinar uma ilusão meritocrática ou de tolerância com forças políticas, nepotistas, preconceituosas ou tendenciosas, a principal contribuição da IA será refutar a ideia de que aquilo que temos é justo, imparcial e meritocrático.
Se, ao invés, estiverem envolvidos seres humanos éticos e competentes no processo de análise, tratamento e apuramento dos dados preparatórios que irão alimentar a IA, então existe uma tremenda oportunidade para se usar a IA como uma ferramenta para diagnosticar e expor preconceitos, e superá-los verdadeiramente. Reside aqui uma das grandes contradições da IA: o que começou como uma ferramenta para competir com a inteligência humana tem o potencial para reduzir o preconceito humano, mas também corre o risco de exacerbar a nossa natureza humana imperfeita corroendo as nossas partes boas e incrementando as nossas partes más. Pelo menos, os humanos ainda continuam no lugar do condutor, ou seja, a controlarem aquilo em que a IA é usada ou não. A oposição à IA, seja por parte do público em geral ou dos efetivos utilizadores da IA, atinge o seu auge quando a IA recomenda decisões, comportamentos e escolhas diferentes daquelas que os humanos preferem intuitivamente: por exemplo, ver este filme, contratar esta pessoa, ir a este restaurante, comprar estes ténis. Quando a IA se alinha com as nossas preferências enquanto expomos o seu lado negro, depressa culpamos a IA pelos nossos demónios interiores, em vez de reconhecermos os nossos próprios preconceitos.
Desta forma, a IA poderia tornar-se a maior arma de verificação da realidade na história da tecnologia, mas em vez disso é considerada uma ferramenta de distorção da realidade. Na medida em que a IA nos possa ajudar a confirmar as nossas interpretações da realidade ou a fazer-nos ter bom aspeto, iremos acolhê-la. Caso contrário, deveríamos considerar a IA como uma experiência fracassada.
Comentários