Home > ADVILLAGE > Professor da FGV adverte para os riscos do mau uso da inteligência artificial

ADVILLAGE

06/02/2019 16:28 por Advillage

Professor da FGV adverte para os riscos do mau uso da inteligência artificial

"Um algoritmo já pode escolher o que vamos ler na internet, nos manipular politicamente e tomar decisões", lembra André Miceli

Em que pesem os inegáveis benefícios da Inteligência Artificial (IA), o mau uso dessa tecnologia pode produzir efeitos nocivos sobre a sociedade e, por isso, a população e seus governantes devem estar atentos às finalidades de aplicação da IA.

O alerta é do coordenador do MBA de Marketing Digital da Fundação Getulio Vargas (FGV), André Miceli. "Um algoritmo já pode escolher o que vamos ler na internet, nos manipular politicamente e aumentar ainda mais a discriminação na sociedade, além de julgar quem tem mais chances de viver ou morrer. Avaliar os riscos é fundamental para combater impactos que podem ser extremamente perigosos. Portanto, é essencial trabalhar para minimizar esses impactos negativos de iniciativas que podem facilitar o nosso dia a dia", diz o pesquisador.

Miceli, que é especialista em Tecnologia da Informação, cita como exemplo a China, país líder na tecnologia de reconhecimento facial. Ele afirma que milhões de pessoas já foram mapeadas, sendo foco de alertas disparados para instituições governamentais e particulares. "Esse tipo de informação pode ser usado por governos autoritários para criar alguma imposição de comportamento. Um exemplo simples é que alguns trens públicos do país asiático já não abrem suas portas quando alguém reconhecido como devedor tentar entrar. Isso seria mais ou menos um SPC chinês”.

O professor da FGV ressalta que esses algoritmos, além de analisar créditos bancários, podem estabelecer quem pode ou não comprar um imóvel ou entrar em um clube social. "Neste caso, eles podem entregar pontuações de efeito preconceituoso, como, por exemplo, o caso do chatbot da Microsoft que se transformou em uma ferramenta racista e foi desligado pela empresa", cita.

Risco à democracia

André Miceli lembra que algoritmos já escolhem que tipo de informações temos acesso nas redes sociais e que chatbots maliciosos podem ser criados para discutir política tendo a favor de si a possibilidade de recorrer a dados mais rápido que os seres humanos. "Essa customização pode trazer riscos à democracia porque pode potencializar e beneficiar um determinado candidato. As eleições deste ano na África do Sul e na Nigéria estão propensas a sofrer interferências desse tipo de tecnologia", explica.

Até vídeos e áudios podem ser manipulados com a tecnologia disponível, permitindo a criação de escândalos e falsas acusações. Miceli lembra de um fato marcante na Índia no ano passado. “Pessoas foram linchadas e mortas por falsas acusações de pedofilia".

Vida ou morte

O professor da FGV acrescenta que a Inteligência Artificial já reconhece quem tem doença transmissível. Portanto, a tecnologia pode controlar epidemias e, ao mesmo tempo, excluir pessoas que são um risco para a sociedade. "Outro uso é em situações de guerra. Os Estados Unidos têm drones que avaliam percursos com imagens cedidas pelo Google. Qualquer erro pode ser fatal para a morte de um inocente", avalia André Miceli.

Por fim, o pesquisador adverte que essa tecnologia também pode ser fatal, e portanto precisa de aperfeiçoamento. E recorda o caso do carro autônomo de um aplicativo de mobilidade que atropelou e matou uma mulher. "Em uma situação adversa e hipotética, o algoritmo poderá ter que escolher entre atropelar um jovem ou um idoso. Quem ele vai escolher? Na Índia uma vaca é sagrada, e no resto do mundo?”

Papel da sociedade –"Para que as coisas não saiam do controle, é imprescindível que pesquisadores e cientistas eduquem a sociedade quanto ao uso responsável da Inteligência Artificial. Ao fazer isso, não vamos colocar a vida humana em risco e aproveitaremos todos os pontos positivos que esses avançados tecnológicos podem nos proporcionar", propõe Miceli.

Siga-nos no Twitter

'
Enviando