Em tempos de domínio da tecnologia e seus rápidos avanços, novos debates surgem sobre quem responde em caso de crimes cibernéticos envolvendo inteligência artificial (IA) e robótica. O catedrático de Direito Penal da Universidade do País Basco (Espanha), o advogado espanhol e doutor em Medicina Carlos Romeo Casabona é especialista no tema e foi o palestrante convidado, no último dia 17, para a abertura do Congresso Internacional de Ciências Criminais, promovido pelo Programa de Pós-Graduação em Ciências Criminais da Escola de Direito. Doutor Honoris Causa por seis universidades ibero-americanas e diretor da Cátedra Interuniversitária de Direito e Genoma Humano, falou sobre Inteligência Artificial – Robótica e Responsabilidade Penal.
Casabona reflete que, com o advento da IA, os juristas estão preocupados com o que está protegido pelo direito penal. Cita como exemplo de infração com intervenção humana a alteração de um sistema de controle aéreo provocando um acidente fatal. Neste caso, a tragédia decorrente de manipulação em um software não teria um responsável direto por não ser possível identificá-lo. Outro exemplo, seria a alteração no sistema eletrônico de tratamento de um doente internado em UTI levando à piora de seu quadro de saúde.
O grande desafio atual, no entanto, segundo Casabona, são os sistemas autônomos de IA que permitem a autorreprogramação, muitas vezes não respondendo ao que foi previamente programado. Eles também são suscetíveis a falhas, mas sem uma interferência humana maliciosa como nos exemplos anteriores. A pergunta que se faz é: os robôs podem ser criminalmente responsáveis? “Ao não aplicar o conceito de culpa a um robô ou sistemas inteligentes, porque a culpa é inerente aos seres humanos e não a máquinas, abre-se uma nova discussão para a doutrina jurídica, embora existam poucos especialistas no tema”, observa o jurista.
Em muitos países, a responsabilidade penal para delitos produzidos por sistemas de IA autônomos é atribuída às pessoas jurídicas – mas quem responde criminalmente são as pessoas físicas que as representam. Na opinião de Casabona, apoiada por correntes de pensamento jurídico, quem deveria responder por este tipo de crime seriam os seres humanos que participaram do desenvolvimento do software de IA.
Mas o que o jurista espanhol mais defende é a intervenção pública com medidas preventivas para controlar sistemas de IA que podem oferecer algum tipo de risco. Casabona cita como exemplo países em que carros com mais de dez anos passam por uma inspeção anual para avaliar se não representam risco para os condutores e pedestres. “Algo parecido deveria ser desenvolvido para a IA. Temos de chegar a outras soluções, que não sejam só, no momento, responsabilizar os criminosos por sistemas inteligentes autônomos. Existem medidas que podem ser tomadas antes”, finaliza.