O problema da explicação em Inteligência Artificial: considerações a partir da semiótica

Autores

  • Joel Carbonera Universidade Federal do Rio Grande do Sul, Instituto de Informática, Programa de Pós-Graduação em Computação, Porto Alegre, Rio Grande do Sul, Brasil. UFRGS/IEEE RAS
  • Bernardo Gonçalves Universidade de São Paulo, Escola Politécnica, Departamento de Filosofia, São Paulo, São Paulo, Brasil.
  • Clarisse de Souza Pontifícia Universidade Católica do Rio de Janeiro, Departamento de Informática, Rio de Janeiro, Rio de Janeiro, Brasil.

DOI:

https://doi.org/10.23925/1984-3585.2018i17p59-75

Palavras-chave:

Inteligência Artificial, Explicabilidade, Semiótica e Pragmatismo, Engenharia Semiótica

Resumo

Desde os sistemas especialistas dos anos 1980 e 1990, pesquisadores de Inteligência Artificial (IA) dedicam-se ao problema da explicação, a saber, dada uma inferência por parte do sistema, como identificar os passos ou mecanismos que o levaram a tal conclusão. Com o recente sucesso dos sistemas de IA atuais, sobretudo os baseados em aprendizagem profunda, esse problema voltou à tona com vigor, agora mais pronunciado, por eles serem opacos quanto ao seu processo de inferência, em contraste com os sistemas especialistas, então baseados em regras lógicas. Neste texto, apresentamos o problema da explicação, incluindo destaques de sua literatura mais recente na área de IA. Em seguida, indicamos lacunas de abordagens passadas e recentes, e apresentamos então considerações a partir da semiótica de Peirce que, conforme argumentamos, poderiam contribuir para uma condução equilibrada dessa tecnologia na sociedade.

Biografia do Autor

Joel Carbonera, Universidade Federal do Rio Grande do Sul, Instituto de Informática, Programa de Pós-Graduação em Computação, Porto Alegre, Rio Grande do Sul, Brasil. UFRGS/IEEE RAS

Doutor em Ciência da Computação na Universidade Federal do Rio Grande do Sul, membro do grupo BDI (grupo de bancos de dados inteligentes) da UFRGS e do grupo de trabalho financiado pelo IEEE RAS, intitulado Padrão para Ontologias para Robótica e Automação (IEEE RAS WG ORA), coordenador de padronização do campo de Robótica e Automação no capítulo IEEE South Brazil Robotics & Automation Society.

Bernardo Gonçalves, Universidade de São Paulo, Escola Politécnica, Departamento de Filosofia, São Paulo, São Paulo, Brasil.

Pós-doutorado na Universidade de Michigan–Ann Arbor, Ph.D. em Modelagem Computacional com foco em Data Science/Laboratório Nacional de Computação Científica (LNCC), doutorando em Filosofia da Ciência/ USP, membro da Associação Profissional de Scientiae Studia e da Associação para a Filosofia e História da Ciência do Cone Sul.

Clarisse de Souza, Pontifícia Universidade Católica do Rio de Janeiro, Departamento de Informática, Rio de Janeiro, Rio de Janeiro, Brasil.

Professora titular do Departamento de Informática PUC-Rio, doutora em Linguística Aplicada (foco interação humano-computador), Criadora da Engenharia Semiótica, em 2010 foi agraciada com o ACM SIGDOC Rigo Award e em 2013 tornou-se membro da ACM SIGCHI CHI Academy. Em 2014 recebeu o título de HCI Pioneer, outorgado pelo Comitê Técnico de Interação Humano-Computador (TC13) da IFIP. Também em 2014 foi selecionada como uma das 52 pesquisadoras mulheres a figurarem na primeira edição do CRA-W / Anita Borg Institute Notable Women in Computing Card Deck. Em 2016 recebeu o Prêmio do Mérito Científico da SBC e em 2017 o prêmio | Carreira de Destaque em IHC, concedido pela Comissão Especial de Interação Humano Computador da SBC. Em licença sabática da PUC-Rio, trabalhando como Pesquisadora Senior na IBM Research Brazil.

Referências

AIZENBERG, I.; AIZENBERG, N.; VANDEWALLE, J. Multi-valued and universal binary neurons: theory, learning and applications. Dordrecht: Springer, 2000.

BIRAN, O.; COTTON, C. Explanation and justification in machine learning: a survey. Proceedings of IJCAI-17, Workshop on explainable AI (XAI), 2017.

CADWALLADR, C. Google, democracy and the truth about internet search. The Guardian, 4 dec 2016. Disponível em: http://www.theguardian.com/technology/2016/dec/04/google-democracy-truthinternet-search-facebook. Acesso em: 26 maio, 2018.

CLANCEY W. J.; SHORTLIFFE, E. (Orgs.). Readings in medical artificial intelligence: the first decade. Reading, MA: Addison Wesley, 1984.

DE SOUZA, C. S. The semiotic engineering of human-computer interaction. Cambridge, MA: MIT Press, 2005.

DECHTER, R. Learning while searching in constraint-satisfaction problems. Proceedings of the 5th National Conference on Artificial Intelligence. Philadelphia, PA, August 11-15. Vol. 1, p. 178-183, 1986.

DENG, Jia; DONG, Wei; SOCHER, Richard; LI, Li-Jia; LI, Kai; FEI-FEI, Li. Imagenet: a largescale hierarchical image database. In: Proceedings of IEEE, Conference on Computer Vision and Pattern Recognition. p. 248-255, 2009.

DHURANDHAR, Amit; CHEN, Pin-Yu; LUSS, Ronny; TU, Chun-Chen; TING, Paishun; SHANMUGAM, Karthikeyan; DAA, Payel. Explanations based on the missing: towards contrastive explanations with pertinent negatives, 2018. Disponível em:

http://arxiv.org/abs/1802.07623. Acesso em: 26 mai. 2018.

DORAN, Derek; SCHULZ, Sarah; BESOLD, Tarek. What does explainable ai really mean? a new conceptualization of perspectives. Proceedings of the First International Workshop on Comprehensibility and Explanation in AI and ML, arXiv:1710.00794, 2017.

ECO, U. On truth: a fiction. In: ECO, U.; SANTAMBROGGIO, M.; VIOLI, P. (Orgs.). Meaning and mental representations. Bloomington, IN: Indiana University Press. p. 41-59, 1988.

GOODMAN, B; FLAXMAN, S. European union regulations on algorithmic decisionmaking and a “right to explanation”. AI Magazine, vol. 38, no. 3, 2016. Disponível em: http://doi.org/10.1609/aimag.v38i3.2741. Acesso em: 26 mai. 2018.

HE, Kaiming; ZHANG, Xiangyu; REN, Shaoqing; SUN, Jian. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification. In: Proceeding ICCV '15 Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV). p.

-1034, 2015.

HERLOCKER, J.; KONSTAN, J.; RIEDL, J. Explaining collaborative filtering recommendations. In: Proceedings of the Third Conference on Computer Supported Cooperative Work (CSCW), p. 241-250, 2000.

HERN, A. 'Partnership on AI' formed by Google, Facebook, Amazon, IBM and Microsoft”. The Guardian: International Edition, 29/06/2016. Disponível em: http://www.theguardian.com/technology/2016/sep/28/google-facebook-amazonibm-microsoft-partnership-on-ai-tech-firms. Acesso em: 4 maio, 2018. Ver também sítio oficial do consórcio: http://www.partnershiponai.org/.

LIPTON, Zachary. The mythos of model interpretability. ICML Workshop on Human Interpretability in Machine Learning, 2016. Disponível em: https://arxiv.org/pdf/1606.03490.pdf. Acesso 17 junho, 2018.

NADIN, M. In folly ripe. In reason rotten: putting machine theology to rest, 2017. Disponível em: https://arxiv.org/abs/1712.04306v1. Acesso em: 4 maio, 2018.

PEARL, J. Probabilistic reasoning in intelligent systems. San Francisco, CA: Morgan Kaufmann, 1988.

PEIRCE, C. S. Philosophical writings of Peirce, Buchler, J. (Org.). New York, NY: Dover Publications, 1955.

SANTAELLA, L. O método anticartesiano de C. S. Peirce. São Paulo: Ed. Unesp, 2004.

SEBE, N. Human-centered computing. In: NAKASHIMA, Hideyuki; AGHAJAN, Hamid; AUGUSTO, Juan Carlos (Orgs.). Handbook of ambient intelligence and smart environments. Dordrecht: Springer, p. 349-370, 2010.

YOSINSKI, Jason; CLUNE, Jeff; NGUYEN, Anh; FUCHS, Thomas; LIPSON, Hod. Understanding neural networks through deep visualization. In: Proceedings of the Deep Learning Workshop, 31st International Conference on Machine Learning, Lille, France. 2015.

Downloads

Publicado

2018-05-29