Watson foi um dos hot-topics ano passado aqui no blog e na comunidade científica em geral. Esse computador da IBM que venceu o jogo de perguntas Jeopardy foi descrito aqui.
Volto ao tema porque um de nossos projetos de pesquisa visa fazer com que programas de computador entendam textos e seus conceitos. Nesses trabalhos um dos desafios são as palavras ambíguas. É difícil para um programa de computador “ler” um texto que fala de Fortaleza e saber se refere-se ao time de futebol ou à cidade. Manga fruta ou de camisa, Jaguar carro ou animal são outros exemplos de ambiguidades que podem levar a confusões.
Pois bem, li recentemente que Watson durante a competição cometeu uma gafe incrível ao responder “Toronto” para a pergunta que referia a cidade americana com o maior aeroporto com nome de um herói da segunda guerra e o segundo maior tem o nome de uma batalha também da segunda guerra. Além de levantar a ira dos canadenses que detestam se achar um estado a mais dos EUA, esse erro fez pesquisadores buscarem entender como o programa tão competente e que acabou vitorioso no torneio batendo os maiores campeões humanos pode se enganar tanto.
A resposta vem da ambiguidade que ele pegou em sua base de conhecimento que o deixou confuso. Uma cidade americana pode se referir aos EUA, mas também a uma canadense, não? Aliás, brasileira também. O problema é que temos um conhecimento de senso comum de que esse termo na maioria dos contextos se refere aos EUA. Watson sabia disso, mas teve dúvida e como tinha que responder com rapidez, acabou entrando pelo cano. Vida dura essa de replicante, eih? Veja mais sobre isso aqui.
Caro Vasco,
ResponderExcluirIsso fragiliza os Sistemas baseados em inteligência Artificial?
Se fosse para decidir um ataque nuclear este erro "simples" poderia ser fatal.
É um desafio. Mas não ache que está perto de deixarmos um sistema de computação tomar a decisão final a um ataque nuclear
ResponderExcluir