ArgLab
Projeto de Investigação
ANTIDOTE: Inteligência Artificial explicável para a medicina digital apoiada em argumentação

Oferecer explicações de alta qualidade para previsões em IA baseadas em aprendizagem automática (machine learning) é uma tarefa complexa e desafiante. Para que funcione bem é necessário, entre outras coisas: selecionar um nível adequado de generalidade/especificidade da explicação; considerar assunções a respeito da familiaridade do beneficiário da explicação com a tarefa de IA sob consideração; referir os elementos específicos que contribuiram para a decisão; fazer uso de conhecimento adicional (e.g. metadados) que possa não fazer parte do processo de previsão; selecionar exemplos apropriados; oferecer provas que apoiem hipóteses negativas. Por fim, o sistema necessita de formular a explicação de forma claramente interpretável, e possivelmente convincente.

 

Dadas estas considerações, ANTIDOTE promove uma visão integrada da IA explicável, onde as características de nível básico do processo de aprendizagem profunda (deep learning) são combinadas com esquemas de nível elevado adequados à capacidade argumentativa humana. A concepção integrada de ANTIDOTE é suportada por três considerações: (i) nas arquiteturas neurais a correlação entre os estados internos da rede (e.g. os pesos assumidos por nós solitários) e a justificação do resultado da classificação da rede não está bem estudada; (ii) explicações de alta qualidade são crucialmente baseadas em mecanismos de argumentação (e.g. fornecer exemplos favoráveis e alternativas rejeitadas), que são, em larga medida, independentes da tarefa; (iii) em ambientes reais, oferecer explicações é inerentemente um processo interactivo, onde um diálogo explicativo toma lugar entre o sistema e o utilizador. Assim, ANTIDOTE explorará competências interdisciplinares em três áreas, i.e., aprendizagem profunda, argumentação e interatividade, em prol de uma concepção mais ampla e inovadora da IA explicável. Apesar de projetarmos uma abordagem integrada geral à IA explicável, focaremos um conjunto de tarefas de aprendizagem profunda na área da medicina, onde a necessidade de explicações de alta qualidade para a deliberação de casos clínicos é crítica.

Eventos