Building peace in the minds of men and women

Grande Angular

Trabalhar para, e não contra a humanidade

cou_03-18_ethics_01.jpg

O fim da privacidade na era digital? Obra do cartunista cubano Falco.

Enquanto caminhamos inevitavelmente para um mundo automatizado e com as quase infinitas possibilidades da inteligência artificial, torna-se necessário que identifiquemos as implicações éticas desta tecnologia emergente e tratemos de seus desafios legais e sociais sem precedentes.

Tee Wee Ang e Dafna Feinholz (UNESCO)

De tempos em tempos, nos deparamos com uma tecnologia que nos faz parar para considerar o que significa ser humano. O advento da Inteligência Artificial (IA) exige uma reflexão profunda sobre seus abrangentes impactos. Embora o conceito por trás desta tecnologia tenha sido objeto de nossa imaginação coletiva há décadas, só agora ela está se tornando uma realidade impregnada em nossas vidas.

Avanços recentes em tecnologia de IA – especialmente aqueles relacionados à machine learning (aprendizagem automárica ou aprendizado de máquina) em geral e especialmente à aprendizagem profunda – mostraram que sistemas dotados de IA podem superar o desempenho de humanos em termos de eficiência e efetividade em diversas áreas, incluindo em tarefas que exigem certo grau de raciocínio cognitivo. Dessa forma, a IA tem o potencial de trazer imensos progressos e benefícios à humanidade enquanto, ao mesmo tempo, pode trazer rompimentos nos arranjos socioeconômicos e políticos da sociedade atual.

Quando refletimos sobre as implicações éticas da IA, devemos ser realistas sobre o que é e o que não é a IA atualmente. Em geral, quando falamos sobre IA, estamos falando sobre “IA limitada”, ou “IA fraca”, que é projetada para cumprir uma tarefa específica – como por exemplo, analisar e melhorar um fluxo de tráfego; fazer sugestões online de produtos com base em compras anteriores etc. Essa “IA limitada” já está por aqui – e se tornará cada vez mais complexa e integrada à nossa vida cotidiana.

Por enquanto, não estamos considerando aquilo que é chamado de “IA sólida” ou Inteligência Artificial Geral (IAG), mostrada em diversas histórias e filmes de ficção científica – que supostamente poderiam cumprir uma ampla variedade de tarefas cognitivas humanas e, segundo especialistas, trazer inclusive traços de “autoconhecimento” e “consciência”. Atualmente, não há consenso sobre a viabilidade da IAG, muito menos sobre quando ela poderia ser alcançada.

Coleta de dados interminável

A machine learning e a aprendizagem profunda são abordagens que exigem uma grande quantidade de dados em tempo real para que o sistema dotado de IA “aprenda” por meio da “experiência”, e uma infraestrutura para que a IA implemente seus objetivos e tarefas com base no que acabou de aprender. Isso significa que quando consideramos as implicações éticas da IA, precisamos levar em consideração o complexo ambiente tecnológico necessário para o funcionamento da IA. Este ambiente inclui a constante coleta de big data pela IA por meio da Internet das Coisas; a armazenagem de big data na nuvem; o uso de big data pela IA para seu processo de “aprendizado”; e a implementação de análises ou tarefas de IA por meio de cidades inteligentes, veículos automatizados ou dispositivos robóticos etc.

Quanto mais complexo o desenvolvimento tecnológico se torna, mais complexas são as questões éticas levantadas. Enquanto os princípios éticos não mudam, as maneiras que abordamos tais questões podem mudar radicalmente. Como resultado, estes princípios podem ser severamente comprometidos, de maneira consciente ou não.

Nossas noções de privacidade, de confidencialidade e de autonomia, por exemplo, podem mudar drasticamente. Por meio de dispositivos inteligentes e aplicativos que se tornaram instrumentos de redes sociais como Facebook e Twitter, nós estamos fornecendo informações pessoais de maneira voluntária e gratuita sem realmente entender os usos potenciais destes dados e quem os utilizará. Estes dados alimentam sistemas dotados de IA, que estão sendo desenvolvidos principalmente pelo setor privado. Tais dados se tornam anônimos, para que as informações sobre nossas preferências e hábitos possam ser usadas para criar padrões de comportamento, permitindo que um sistema dotado de IA possa oferecer mensagens políticas, vender aplicativos comerciais, monitorar algumas de nossas atividades relacionadas à saúde etc.

O melhor e o pior

Isso significaria o fim da privacidade? E a segurança dos dados, a vulnerabilidade ao ataque de hackers criminosos? Seriam estes dados também cooptados pelo Estado para controlar sua população, talvez em detrimento dos direitos humanos individuais? Poderia um ambiente dotado de IA, que monitora constantemente nossas preferências e nos oferece uma gama de opções com base em tais preferências, limitar a extensão de nossa autonomia de escolha e criatividade, de alguma forma?

Outra questão importante a ser considerada é se os dados utilizados por um sistema de IA para “aprender” contêm distorções ou preconceitos embutidos, já que levariam a IA a tomar “decisões” que resultam em discriminação e estigmatização. Os sistemas de IA encarregados das interações sociais ou da entrega de serviços sociais podem ser particularmente vulneráveis a isso. Precisamos estar cientes do fato de que alguns dados, tais quais os gerados na internet, contêm informações que refletem tanto o melhor quanto o pior para a humanidade. Dessa maneira, confiar em um sistema dotado de IA para aprender a partir de seus dados é, em si, insuficiente para assegurar um resultado ético – uma intervenção humana direta seria necessária.

Um sistema dotado de IA poderia ser ensinado a ser ético? Alguns filósofos argumentam que algumas experiências – tais como as estéticas e éticas – são inerentes aos seres humanos, então não podem ser programadas. Outros propõem que a moralidade pode ser aumentada por meio da racionalidade e, dessa maneira, pode ser programada, mas a liberdade de escolha deve ser protegida. Atualmente, não há consenso sobre como a ética e a moralidade podem ser ensinadas, até mesmo para humanos com base apenas em pensamentos racionais, quanto mais com relação à IA. E mesmo se uma IA tenha sido eventualmente programada a ser ética, qual ética utilizaríamos? Seria esta ética a mesma dos desenvolvedores? Já que o desenvolvimento de IA é principalmente dirigido pelo setor privado, é necessário considerar a possibilidade de que a ética do setor privado possa ser inconsistente com a ética da sociedade.

Se procuramos nos assegurar de que a IA funcione para, e não contra, nós, precisamos nos comprometer com um diálogo abrangente, que inclui as perspectivas éticas diferentes de todos afetados por ela. Nós precisamos ter certeza de que a estrutura ética usada por nós para desenvolver a IA também leve em conta questões mais amplas de responsabilidade social, para assim equilibrar potenciais rupturas na sociedade humana.

Dafna Feinholz

Chefe de Departamento, Bioética e Ética da Ciência na UNESCO, Dafna Feinholz (México) é psicóloga e bioeticista de formação. Trabalhou como secretária-geral da Comissão Nacional de Bioética do México. 

Tee Wee Ang

Especialista de Programas, Bioética e Ética da Ciência na UNESCO, Tee Wee Ang (Malásia) trabalhou em engenharia de projetos e gestão de engenharia antes de juntar-se à UNESCO em 2005.