Pesquisadores da University of Washington fizeram um estudo para ver se uma IA pode aprender valores culturais observando pessoas. Eles recrutaram participantes que se identificaram como brancos e participantes que se identificaram como latinos. Os dados de cada grupo treinaram agentes separados.
Os agentes usaram aprendizado por reforço inverso (IRL). No IRL, a IA observa ações humanas e tenta entender quais objetivos e recompensas movem essas ações. Isso lembra como crianças aprendem observando adultos.
No experimento, os participantes jogaram um videogame de cozinha. Podiam doar cebolas para ajudar outro jogador, mesmo que isso reduzisse suas próprias entregas. O grupo latino ajudou mais, e o agente treinado com esses dados também foi mais altruísta em um teste de doação de dinheiro.
Palavras difíceis
- pesquisador — pessoas que fazem estudos científicosPesquisadores
- recrutar — pedir para pessoas participarem de um estudorecrutaram
- treinar — ensinar um sistema a fazer tarefastreinaram
- aprendizado — processo de aprender com exemplos
- agente — programa de computador que toma decisõesagentes
- altruísta — que ajuda outros sem esperar recompensa
- doação — ato de dar algo para outra pessoa
- valor — ideia ou crença importante numa culturavalores
Dica: passe o mouse, foque ou toque nas palavras destacadas no artigo para ver definições rápidas enquanto lê ou ouve.
Perguntas para discussão
- Você já ajudou outra pessoa mesmo que isso lhe custasse algo? Conte brevemente.
- Você acha importante treinar uma IA com dados de grupos diferentes? Por quê?
- Se estivesse no jogo, você doaria um item para ajudar outro jogador? Por que sim ou por que não?
Artigos relacionados
Arquivistas cidadãos preservam cultura oral no Sul da Ásia
Arquivistas cidadãos gravam cantos, histórias e saberes tradicionais no Sul da Ásia. O projeto "Enhancing Indic oral culture on Wikimedia projects" apoia gravações e transcrições para Wikimedia Commons, Wikisource e Wikipedia.
Por que modelos de linguagem falham ao multiplicar 4 dígitos
Pesquisa mostra que métodos de treino comuns não permitem que modelos guardem resultados intermédios, por isso falham ao multiplicar dois números de quatro dígitos. Um método chamado ICoT aprendeu a armazenar esses valores e teve sucesso.