Blog

Ética na inteligência artificial: como garantir que as decisões tomadas por sistemas automatizados sejam justas e imparciais?

Com o advento da inteligência artificial surgem inúmeras preocupações éticas em torno dessa tecnologia, principalmente no que diz respeito aos uso de algoritmos, afinal os sistemas de AI são tão imparciais quanto aos dados nos quais são treinados.

Isso abre uma enorme discussão sobre se esses dados forem tendeciosos, eles podem acabar perpetuando e ampliando a discriminação, entre outras importantes discussões e preocupações que esses sistemas causam na sociedade.

Continue lendo o artigo e entenda mais sobre a ética na inteligência artificial e como ela pode acabar impactando na sociedade, afinal seja você um consumidor ou o dono de uma empresas de usinagem, de alguma forma sentirá os efeitos.

Ética na inteligência artificial

No dicionário, a palavra ética pode ser denominada como “disciplinam ou orientam o comportamento humano, refletindo a respeito da essência das normas, valores, prescrições e exortações presentes em qualquer realidade social”.

Também podemos encontrar a seguinte definição:“conjunto de regras e preceitos de ordem valorativa e moral de um indivíduo, de um grupo social ou de uma sociedade”.

Mas como trazer esses valores humanos para máquinas e sistemas que não têm o mesmo juízo de valor que o nosso? Essa é uma discussão bem calorosa e que pouco se andou referente ao que é ética ou não na IA.

Veja a seguir algumas das principais considerações relacionadas à IA quando falamos sobre ética, esse é um tema muito profundo, afinal a ética vem de nós, seres humanos, e precisamos nos responsabilizar sobre isso. Entenda melhor no próximo tópico.

Viés nos algoritmos

Os sistemas de inteligência artificial são imparciais quanto aos dados nos quais são treinados, até porque eles não possuem consciência para saber se aquelas informações são boas ou ruins.

Dessa forma, se os dados forem tendenciosos, podem acabar perpetuando ou até mesmo ampliando a disciminação. Um bom exemplo disso são os algoritmos de reconhecimento facial que podem levar a possíveis erros de identificação e falsas acusações.

Sendo assim, se esses dados forem elaborados de forma discriminatória, poderá acusar uma pessoa de roubo pela cor da sua pele ou traços físicos, identificando que ela esteve no local, mesmo se ela foi apenas para perguntar sobre a balança analítica preço.

  O que são as placas de ACM e quais as desvantagens desse material?

Transparência e responsabilidade

É fundamental que os sistemas de IA sejam transparentes e de fácil entendimento para que todos possam entender como as tomadas de decisão estão sendo feitas, além de que, se necessário, elas possam contestá-las.

Também é fundamental que haja responsabilidade pelas decisões tomadas pelos sistemas de IA, principalmente se isso for ter um impacto significativo na vida das pessoas, como no caso dos consumidores de uma empresa de Construção de casas, por exemplo.

Privacidade

Não podemos falar de ética sem falar de privacidade, pois à medida que os sistemas de IA se tornam cada vez mais poderosos, eles são capazes de coletar e analisar grandes quantidades de dados pessoais.

Por isso é muito importante garantir que esses dados sejam coletados e usados de forma ética, com mecanismos adequados para a proteção da privacidade de todos.

Principalmente no que diz respeito às empresas, os consumidores de uma consultoria ambiental, por exemplo, precisam saber que todos os seus dados estão seguros e não terá vazamento de nenhuma informação.

Para garantir que a IA seja desenvolvida e acima de tudo usada de forma ética, é essencial que as organizações priorizem considerações e princípios morais em todo o seu processo, isso garante mais transparência e segurança.

Todo esse desenvolvimento pode acabar envolvendo o estabelecimento de diretrizes éticas próprias para a elaboração das ferramentas, além do envolvimento em revisões éticas de sistemas que ajudem a garantir que diversas perspectivas sejam incluídas.

Além disso, é fundamental que os indivíduos sejam informados e envolvidos em discussões sobre as implicações éticas e consigam advogar pelo desenvolvimento e o uso responsável e ético da inteligência artificial.

Afinal, é dever dos humanos que criam e desenvolvem IA mantê-la de forma ética.

Que solução pode ser deixada para o algoritmo?

Os algoritmos estão espalhados por toda a parte, seja nos computadores e smartphones. Sabe quando você busca por filtro secador de ar e logo em seguida aparecem inúmeros anúncios sobre esse mesmo produto? Então, é culpa do algoritmo.

Você pode custar para se lembrar o que estava fazendo há alguns meses atrás, mas o algoritmo sabe e muitas vezes perpetuam viés de gênero, reproduzindo o preconceito e a discriminação. Mas quais soluções devem ser tomadas para que isso não aconteça?

  5 formas de trabalhar o marketing de relacionamento

Bom, criar um sistema inteligente e cognitivo não é uma tarefa fácil, os desenvolvedores precisam ensinar para um sistema que ele reconheça objetos e coisas. Por exemplo, para que ele saiba o que são válvulas retenção, é preciso mostrar essas figuras várias vezes.

Para ensinar um sistema a jogar algum jogo, é preciso fazer com que ele jogue repetidas vezes, ensinando a diferença entre o que é jogar bem ou mal, isso mostra que os desenvolvedores estão ensinando para esses sistemas nossos valores.

Porém como esses sistemas evoluem rápido, eles já começaram a ser capazes de fazer correlações e aprender sozinhos, sem que ninguém precise ensiná-los, com isso eles não necessitam de supervisão.

É justamente desse cenário que surge o dilema, deve haver limites humanos para a adoção da automação por sistemas de IA?

Essa é uma longa discussão pois alguns estudiosos acreditam que essa supervisão poderia barrar os avanços tecnológicos, porém outros defendem que esse controle deve acontecer de forma periódica.

Fato é que muitos vieses dos algoritmos não são propositais, mas são derivados das bases e dos tipos de dados que eles usam, pois a maioria dos algoritmos são: 

  • Treinados em pontos de dados históricos;
  • Treinados com decisões anteriores de contratação de uma empresa;
  • Suscetíveis a aprender;
  • Suscetíveis a perpetuar os preconceitos existentes.

Por isso, construir tais algoritmos pode ser tanto uma arte quanto uma ciência, pois a escolha dos modelos matemáticos e dos dados devem ser cuidadosamente analisados e selecionados para que possam ser minimizadas as possibilidades de viés nocivos.

Como tornar a IA transparente?

É importante que se realize testes, pois é através desses relatórios que será possível que uma empresa de torneamento e usinagem, por exemplo, consiga verificar se o seu sistema de IA está funcionando corretamente de forma desejável.

Além da própria empresa, também existe a possibilidade de uma agência reguladora checar essas informações para saber se um sistema de tomada de decisão está agindo de forma discriminatória, com base em fatores como raça e gênero.

  Como funcionam as tecnologias de tratamento de esgoto industrial e qual o impacto delas na preservação do meio ambiente?

Por exemplo, uma empresa de caixa de hidrante, utiliza um sistema que auxilia na decisão para contratar uma empresa de mudança.

Para essa decisão serão levados em consideração dois inputs, que seriam o gênero e a capacidade de levantar pesos, que são correlacionados positivamente para a decisão da contratação.

É muito importante saber se o sistema de fato usa a capacidade de levantamento de peso ou de gênero para suas tomadas de decisão, isso determina se ela pode fazer alguma discriminação.

Para determinar a transparência nesse caso, a empresa em questão poderia manter fixada a capacidade de levantar peso, variando somente o gênero, verificando se existe alguma diferença na decisão.

Responsabilidade e responsabilização

De quem é a responsabilidade das ações tomadas pela IA? Bom, de certa forma ela poderia acabar recaindo sobre os próprios desenvolvedores ou outros envolvidos na cadeia de produção desses sistemas.

Usando um exemplo prático, poderíamos falar sobre o caso de peças montadas com imperfeição, falta de vistoria legal.

Bom, o Código de Defesa do Consumidor estabelece que a responsabilidade é solidária entre os participantes da cadeia de produção, entretanto quando o assunto é IA, essa discussão é mais complicada.

Principalmente no que diz respeito ao viés do algoritmo em relação à discriminação, portanto há culpa por parte dos desenvolvedores ao criarem softawares propensos a danos, por não obervação de boas práticas teste e treinamentos específicos.

Pode caber uma discussão de responsabilização subjetiva caso os danos realmente aconteçam, tudo isso tem que ser analisado de uma forma minuciosa, pois existem enormes variáveis no meio do caminho.

Tudo isso no limite, com a conscientização pública a respeito dos riscos impostas por essas tecnologias, com o uso de normas de conduta mais claras para os polos humanos da interação, para isso pode ser elaborado:

  • Avisos públicos que informem sobre a implementação de tais ferramentas;
  • Locais exclusivos para seu uso;
  • Manuais de instruções mais claros.

Isso tudo ajuda a regulamentar e trazer uma ética do ponto de vista humano para os sistemas e máquinas desenvolvidos pela inteligência artificial.

Esse texto foi originalmente desenvolvido pela equipe do blog Guia de Investimento, onde você pode encontrar centenas de conteúdos informativos sobre diversos segmentos.