Atualmente, são várias as asseverações jurisperitas que ousam exagerar a operação privacy (EU)friendly e risky – i.e., essencialmente, não previsível, não exata, não limitada às finalidades necessárias, opaca e d(i)scriminatória[1] –, dos sistemas ciberfísicos (i.e., em contornos simplistas, dos software e/ou hardware) de Inteligência Artificial (doravante, abreviadamente, IA)[2]. Sucede que, não obstante todo o protecionismo vaticinado pelo regime sobre a proteção de dados pessoais, intenta-se aclamar ora a necessidade que um Direito e Tecnologia para o Século XXI denota em dever começar por exteriorizar mais a aprovação de políticas legiferantes nem tanto ao mar da lei nem tanto à terra da engenharia.
Em particular, os obstáculos [(lei)go]rítmicos vigentes e quase (in)superáveis de feição europeísta, epitetados draconianamente sob normativos epigrafados “Decisões individuais automatizadas” – previstos no n.º 1 do artigo 22.º do Capítulo III do Regulamento (EU) 2016/679[3] (doravante, abreviadamente, RGPD), ou em alternativa, relativamente à prevenção, deteção, investigação, repressão ou execução de sanções penais, no Capítulo II, do n.º 1 do art. 11.º da Lei n.º 59/2019, de 8 de agosto, vigentes hodiernamente no ordenamento jurídico português[4] – encapotam a falsa natureza jurídica de uma posição ativa de vantagem, aquela que é de matriz tão-só coadunável com a cristalização de um quimérico direito subjetivo[5]. Ora, determinam os números 1 dos artigos ante mencionados que “o titular dos dados tem o direito de não ficar sujeito a nenhuma decisão tomada exclusivamente com base no tratamento automatizado (…) que produza efeitos na sua esfera jurídica ou que o afete significativamente de forma similar”. E, aponte-se, uma decisão exclusivamente automatizada (outcome) materializa-se, em especial no universo IA, sob a forma de um comportamento híbrido ou de uma operação deliberada não vinculada à vontade em maior ou menor medida, que resulta das combinações inferidas das entradas (os inputs) para as saídas (os outpus) dos algoritmos ou modelos de mineração e aprendizagem, respetivamente[6].
Tamanhas interdições, a título exemplificativo, são passíveis de serem aplicadas (não ab ovo, aponte-se) a alguns processos de recrutamento via eletrónico, de marketing online, na deteção e previsão de fraudes, no reconhecimento facial, na pontuação da solvabilidade para efeitos de aceitação no crédito (ciber), na analítica desportiva ou até em áreas como a condução automóvel inteligente, inter alia[7].
Sem mais delongas, portanto, estes números em vigor, vinculam tanto os titulares dos dados pessoais como os responsáveis pelo tratamento, respetivamente, à proibição de serem sujeitos a (algumas) decisões tomadas à escala da IA, grosso modo. Todavia, dele não se indaga com precisão o escopo material a que se refere, pois que no espectro operante da IA as análises preconizadas no prisma dos Sistemas de Suporte à Decisão (Decision Support Systems), dos Sistemas Periciais (Expert Systems), dos Sistemas baseados em Conhecimento (Knowledge-Based Systems), das Interfaces Inteligentes (Intelligent Interfaces), da Computação Evolucionária (EvoComp) ou até mesmo no ramo dos Sistemas Multi-agente (Multi-agent Systems) – entre outros, para o propósito imbricáveis -, esboçam hiatos decisórios díspares. Alguns destes concedem mesmo ao ser humano ainda uma palavra preponderante a dizer (de feição auxiliar ou parcial) quanto à produção de efeitos na esfera jurídica ou significativos de forma similar – se é que alguma vez se perceberá bem o que é ou o que deve ser o reduto da obscura similaridade.
Posto isto, dir-se-á que a meditação teorética acerca dos tratamentos inferenciais (quasi sempre em grande escala) que possam ser qualificados no predicativo de decisões tomadas exclusivamente com recurso a meios automatizados padece de alguma imprecisão sémica. Não se apresenta de todo como uma expressão unitária e de fácil subsunção, aliás, encontrando-se despida de alguma tecnicidade própria dos saberes da engenharia e da psicologia. Ao invés, como em muitas outras situações comedidamente pragmáticas do e no Direito dos livros, esta nomenclatura indeterminada sujeita-se ao risco de se demarcar pela desmedida amplitude.
E é da teoria à prática, olhando a Engenharia e a Psicologia do Direito da IA de mais sítios e de sítios pouco expetáveis em função do trivial, que no presente pequeno escrito procurar-se-á apresentar uma solução transitória e construtiva (NP-Completeness) – sem recorrer (como algumas vezes sucede) a um raciocínio (heuristics) dotado de regras communis opinio doctrum exteriorizadas como outcome de uma execução jurídica tecnofóbico-programática (run legal code) daqueles que têm vindo a ser meios regulatórios ou legais, de pendor genérico e proibitivo, dos quais o ius essendi teima padecer[8].
Julga-se, portanto, em relação a ambos os normativos, ser firme (embora não suficiente na plenitude) a proposta alternativa, propugnada por Sandra Watcher e Brendt Mittelstadt, que demanda convolar – transitoriamente, segundo o prisma de uma hermenêutica ab-rogante -, aquela que é uma lhana proibição geral num direito à inferência razoável[9]. Esta alteração pressuporá, ab initio:
- a determinação do ratio que subjaz à recolha das várias categorias de dados nas entradas dos modelos de mineração e aprendizagem;
- uma explicação acerca da relevância das técnicas e da fundamentação da licitude concernente às inferências em si mesmas, qualificáveis per si no reduto de dados pessoais, independetizadamente, à luz do n.º 1 do art. 4.º do RGPD; mas também,
- a indicação da precisão (ou acuidade, em jargão próprio) concretizada nos processos de treino, teste e implementação, respetiva e sequencialmente, de mote a apurar a confiabilidade no sistema e, como veremos, a consequente subsunção ao critério do controlo conforme aos ditames da psicologia da tomada de decisão[10].
Inobstante, mais do que estes critérios de apreciação objetiva, importará, portanto, substantificar o mote noológico (quiçá, mais casuisticamente definível e multidisciplinar), segundo o qual uma decisão à escala IA passará a estar incluída no espectro da exclusiva automatização. Pelo exposto, só deverá ser tida como exclusivamente automatizada a decisão na IA – a melhor ver, o outcome não humanamente moderado – na qual a existência de controlo antropopático se posiciona como uma condição auxiliar significativa (ou mais ainda, sine qua non) para os efeitos advindos, benéficos ou prejudiciais, tudo isto como acrescento às combinações inferenciais que estabelecem um nexo causal – de pendor fuzzy ou booleano, supervisionado ou não e até de reforço -, de entre as entradas (os inputs) para com as saídas (os outpus) modelares. É que o problema do controlo, conforme aos ditames da psicologia da tomada da decisão, emergirá tão-só da tendência que o supervisor humano exterioriza na complacência, dependência e confiança exacerbada que deposita num sistema de IA, como sucede, frequentemente, com os desideratos imperfeitos e high-stake de investigação criminal ou de circulação transfronteiriça[11]. Não serão, portanto, deste modo, incluídos no âmbito pragmático destas “medidas-mãe”:
- a utilização de sistemas pouco fiáveis, na medida em que não despoletam a complacência típica do problema de controlo na tomada da decisão (automatizada), como sucede, p.ex., com os sistemas de reconhecimento facial[12] ou com a analítica desportiva baseado em técnicas de IA[13]; e
- a automatização parcial – não formal ou complacente, nessa medida – através da decomposição relevante (não rubber-stamping) de tasks para a consecução do mesmo É exemplo disso mesmo a tecnologia centrada no ser humano (Humane AI) aplicada aos veículos quase-inteligentes[14], na pessoa de Lex Fridman[15].
Clarividente, situações haverá em que as fontes tecnológicas de IA envolvidas na tomada de decisões são tão fiáveis que se deve começar a ponderar prescindir da intromissão de que qualquer decisor humano, também ele, tendencioso, errático ou mal-intencionado. Tal sucede, nomeadamente, na implementação de sistemas com fiabilidade quase perfeita (i.e., melhor do que o rigor humana, quando e se passíveis de serem cotejadas as precisões no hiato prévio à fase aplicacional). Tal sucede, a título exemplificativo, com o sistema multi-agente de classificação dos pretensos mutuários-beneficiários quanto ao perfil solvente, desenvolvido por Fábio Silva no ano de 2011 na Universidade do Minho, este que concretizara uma percentagem a sondar os 97,3% de exatidão[16]_[17].
Em conclusão, na esteira ajustada do pensamento de Diogo Freitas do Amaral, também os engenheiros e os psicólogos devem ter um discurso grande a proferir neste novo mundo de agentes, naturais e artificiais. Porque também estes profissionais são fonte ius cognoscendi. E “se uma norma jurídica de conteúdo técnico só pode ser entendida e ‘decifrada’ por intermédio do contributo decisivo de uma certa ciência, esta torna-se um meio necessário de conhecimento do Direito, e não apenas da sua aplicação”[18]. Talvez aqui, um Direito Europeu (ou até, interno) mais moderno e polímato, precise-se.
[1] MORGADO REBELO, Diogo; ANALIDE, Cesar; COVELO DE ABREU, Joana. “O Mercado Único Digital e a ‘(leigo)ritmia da pontuação de crédito na era da Inteligência Artificial”, in Revista de Direito e Tecnologia, vol. 2, nº 1, 2020, p. 39-42.
[2] Esta ciência ou engenharia debruça-se sobre o desenvolvimento de entidades artificiais habilitadas para a execução auxiliar ou substitutiva de tarefas até então da incumbência do ser humano e geralmente associadas à faculdade ou habilidade inteligência. ANALIDE, Cesar; MORGADO REBELO, Diogo, “Inteligência Artificial na era data-driven – a lógica fuzzy das aproximações soft computing e a proibição de sujeição a decisões tomadas exclusivamente com base no tratamento automatizado”, in Forum de Proteção de Dados, n.º 6, CNPD, 2019, p. 64.
[3] Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre Proteção de Dados, de ora em diante, abreviadamente, RGPD).
[4] Lei n.º 59/2019, de 8 de agosto, este que aprovou as regras relativas ao tratamento de dados pessoais para efeitos de prevenção, deteção, investigação, repressão ou execução de sanções penais, transpondo a Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016 que revoga a Decisão-Quadro 2008/977/JAI do Conselho (de ora em diante, abreviadamente, Lei n.º 59/2019 e Diretiva 2016/680, respetivamente).
[5] GT 29. Orientações sobre as decisões automatizadas e a definição de perfis para efeitos do Regulamento 2016/679 (WP251rev.01), adotadas em 3 de outubro de 2017, revista e adotada em 6 de fevereiro de 2018 (tradução da versão em inglês). Disponível em https://www.cnpd.pt/home/rgpd /docs/wp251rev01_pt.pdf (acedido 26/10/2020).
[6] MENDOZA, Isak; BYGRAVE, Lee A, The right not to be subject to automated decisions based on profiling, em EU Internet Law, Springer, Cham, 2017. p. 87.
[7] ANALIDE, Cesar; MORGADO REBELO, Diogo, “Inteligência Artificial na era data-driven cit. p. 82.
[8] HOWARTH, David. Law as Engineering: Thinking About What Lawyers Do, Edward Elgar Publishing, 2013, p. 51 e ss.
[9] WATCHER, Sandra; MITTELSTADT, Brendt, A right to reasonable inferences: re-thinking data protection law in the age of Big Data and AI, em Columbia Business Law Review, 2019, p.
[10] Idem, p. 123.
[11] ZERILLI, John; KNOTT, Alistair; MACLAURIN, James, GAVAGHAN, Colin. “Algorithmic decision-making and the control problem”, em Minds and Machines, vol. 29, n. º 4, 2019, p. 556.
[12] ANWARUL, Shahina; DAHIYA, Susheela. “A Comprehensive Review on Face Recognition Methods and Factors Affecting Facial Recognition Accuracy”, em Proceedings of ICRIC 2019, Springer, Cham, 2020. p. 495.
[13] ANALIDE, Cesar; MORGADO REBELO, Diogo, A New Power AI Play for Winners in the Employment relationship of Professional football: How Lawful is Artificial Intelligence to the Upcoming Portuguese ‘Big Data Ball’ Championship?”. em Anuário E.Tec 2020 – Artificial Intelligence & Robots, JusGov, Universidade do Minho, 2020, p. 189.
[14] ANALIDE, Cesar; MORGADO REBELO, Diogo, “Do introito à Engenharia do Direito Penal sobre rodas ao Agente Automóvel que não (VA‘I’) à luz do atual desarranjo terminológico, em CYBERLAW by CIJIC, 2020, p. 19-23.
[15] FRIDMAN, Lex, Human-centered autonomous vehicle systems: Principles of effective shared autonomy. arXiv preprint arXiv:1810.01835, 2018, s.p.
[16] SILVA, Fábio; ANALIDE, Cesar, Information asset analysis: credit scoring and credit suggestion, em International Journal of Electronic Business, 2011, vol. 9, n. º 3, p. 203-218.
[17] ZERILLI, John; KNOTT, Alistair; MACLAURIN, James, GAVAGHAN, Colin. “Algorithmic decision-making and the control cit., p. 563.
[18] FREITAS DO AMARAL, Diogo, Manual de Introdução ao Direito, vol. I/col. Ravi Afonso Pereira, Almedina, Coimbra, Reimp., 2012, p. 558.
Cesar Analide e Diogo Morgado Rebelo
Cesar Analide
Professor Auxiliar da Escola de Engenharia e Investigador Doutorado em Inteligência Artificial no Laboratório de Inteligência Sintética (ISLab), Centro de Investigação ALGORITMI da Universidade do Minho.
Diogo Morgado Rebelo
Of Counsel da Teixeira & Sousa Guimarães, Sociedade de Advogados, SP, RL. Investigador Estagiário no Laboratório de Inteligência Sintética (ISLab), Escola de Engenharia, e Investigador Júnior do Centro de Investigação em Justiça e Governação (JusGov), Escola de Direito, ambos na Universidade do Minho.