As ferramentas de inteligência artificial estão a crescer e a chegar a muitas pessoas. Em abril, o ChatGPT teve um enorme número de utilizadores por semana. Ao mesmo tempo, investigadores e jornalistas relataram que a IA causou danos por viés, por exemplo em tratamentos médicos e em ferramentas de recrutamento.
Uma pesquisa da Universidade do Texas em Austin estudou um conjunto de algoritmos identificados como tendenciosos. Os investigadores usaram um repositório de incidentes e compararam algoritmos problemáticos com outros semelhantes que não tinham sido apontados por viés.
Os autores dizem que o viés aparece quando os modelos não representam a complexidade do mundo real. Eles recomendam abrir as caixas-pretas dos modelos, incluir entradas diversas e clarificar verdades fundamentais.
Palavras difíceis
- inteligência artificial — programas ou máquinas que simulam pensamento humano
- viés — erro que favorece um grupo ou resposta
- investigador — pessoa que faz estudo ou pesquisainvestigadores
- repositório — lugar digital para guardar informação ou dados
- algoritmo — conjunto de regras ou passos em computadoralgoritmos
- modelo — representação de algo para fazer previsõesmodelos
- complexidade — característica de algo com muitas partes ou níveis
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Você já usou uma ferramenta de inteligência artificial? Como foi a experiência?
- Por que é importante incluir entradas diversas nos modelos?
- Você acha que os modelos devem ser mais claros para o público? Por quê?
Artigos relacionados
Suplementos na ração ajudam tilápia a suportar frio
Pesquisadores do Egito e das Filipinas testaram lecitina e goma arábica na ração de tilápia-do-nilo e observaram melhorias no crescimento, sobrevivência e nas respostas ao stress térmico. O estudo foi publicado em Aquaculture Reports.
Sinais de segurança em modelos de linguagem
Pesquisadores da North Carolina State University estudaram como melhorar o alinhamento de segurança em modelos de linguagem. Propuseram a Hipótese de Alinhamento de Segurança Superficial (SSAH) e mostraram que congelar neurónios críticos pode preservar a segurança durante o ajuste fino.
Redes sociais e desenvolvimento de leitura na adolescência
Pesquisa com mais de 10.000 jovens liga uso regular de redes sociais na primeira adolescência a desenvolvimento mais fraco de leitura e vocabulário. Estudo também aponta mudanças na atenção, benefícios de velocidade e recomendações para limitar o tempo de tela.