Microsoft cria inteligência artificial que “prevê” gravidez na adolescência

O algoritmo foi apresentado em 2018 pelo Ministério da Primeira Infância da província de Salta e a empresa de tecnologia, mas tem dado o que falar recentemente, quando alguns dados foram divulgados

Resumo da Notícia

  • Microsoft cria inteligência artificial que "prevê" gravidez na adolescência
  • O algoritmo foi apresentado em 2018 pelo Ministério da Primeira Infância da província de Salta e a empresa de tecnologia
  • Ele tem dado o que falar recentemente, quando alguns dados foram divulgados
  • Alguns especialistas criticaram os métodos usados

Um novo algoritmo, que pretende estipular quais meninas tem mais probabilidade de engravidar na adolescência, tem dado o que falar na Argentina. Tudo começou em 2018, quando o Ministério da Primeira Infância da província de Salta e a empresa de tecnologia Microsoft apresentaram a inteligência artificial.

-Publicidade-

O algoritmo, que chama “Plataforma Tecnológica para Intervenção Social”, foi criado para desenvolver as probabilidades em cima de dados demográficos que incluem idade, etnia, deficiência, país de origem e até mesmo se a casa tem ou não água quente no banheiro. Para coletar esses dados, segundo informações do site Wired, “agentes territoriais”  visitaram casas das meninas e mulheres em questão. Para a pesquisa, eles fizeram perguntas, usaram o GPS, tiraram fotos e fizeram registros dos locais. A maior parte das jovens consultadas eram imigrantes de países vizinhos ou de etnias indígenas locais.

Microsoft cria inteligência artificial que "prevê" gravidez na adolescência
Microsoft cria inteligência artificial que “prevê” gravidez na adolescência (Foto: Getty Images)

O algoritmo chegou a ser anunciado em rede nacional, mas o governo não divulgou detalhes de como ele operava o que acontecia com as pessoas identificadas como mães em potencial. Agora, os dados de coleta de informações estão aos poucos começando a serem revelados.

Problemas com os dados

A falta de transparência, inclusive, foi um dos problemas apresentados pelos especialistas em entrevista ao jornal “Wired”. Para eles, é essencial ter detalhes sobre o código para entender como as análises e possibilidades são feitas e realmente colocar a inteligência artificial para funcionar.

Além disso, o jornal acendeu o olhar para a falta de informações externas sobre o uso da tecnologia e não há publicação dos dados coletados ou de informações adicionais, como ações afirmativas realizadas nas regiões monitoradas. Outro erro apontado foi o fato de que o algoritmo não leva em consideração fatores como educação sexual e métodos contraceptivos.

Apesar dos erros, no entanto, segundo uma universidade local, o modelo realizou previsões corretas em 98% das vezes.