Com o objetivo de entender os usos e as implicações da inteligência artificial (IA) na pesquisa ciêntifica, a Pró-reitoria de Pesquisa e Pós-graduação (PROPESQ) ofertou, nos dias 16, 17 e 18 de janeiro, o Workshop de Capacitação em Inteligência Artificial. O evento contou com a participação de mais de 100 pesquisadores de diferentes Escolas e áreas do conhecimento, contemplando a interdisciplinaridade das pesquisas desenvolvidas na PUCRS. Na cerimônia de abertura, o vice-reitor da Universidade, Ir. Manuir Mentges, ressaltou a importância latente das potencialidades de aprimoramento dos resultados encontrados na pesquisa por meio do uso da inteligência artificial.
“A IA possui a capacidade de processar dados complexos, mas possui também uma perspectiva transformadora para aprimorar as práticas de pesquisa acadêmica. Ao explorar as vastas possibilidades que a inteligência artificial oferece, estamos abrindo as portas para um futuro onde a pesquisa pode ser mais ainda eficiente e impactar milhares de vidas, alinhadas com as demandas contemporâneas”, destaca.
No primeiro dia, os pesquisadores participaram do módulo conceitual, com palestras sobre história, passado e futuro da IA, com os professores da Escola Politécnica e do Programa de Pós-Graduação em Ciência da Computação, Lucas Silveira Kupssinsku e Rodrigo Barros. Ainda nesse mesmo dia, os membros do Centro de Pesquisa, Ensino e Inovação em Ciência de Dados, Carlos Falcão de Azevedo Gomes e Mauricio Magnaguagno, ministraram painel sobre boas práticas no uso de dados.
O Grupo de Pesquisa em Teoria de Aprendizagem de Máquina e Aplicações foi o responsável por conduzir no segundo dia o módulo prático, interagindo com a inteligência artificial. Além disso, no último dia foram discutidos os dilemas éticos e legais. O professor da Escola de Humanidades e dos Programas de Pós-Graduação em Comunicação, Filosofia e Teologia, Nythamar Hilario Fernandes de Oliveira Junior, ressaltou as perspectivas morais e civilizatórias que se conectam com os diferentes conceitos e atravessamentos da realidade contemporânea na inteligência artificial. Já o professor da Escola de Direito e do Programa de Pós-Graduação em Direito, Paulo Caliendo, destacou o processo de centralidade no ser humano que deve constituir os intermédios da formação regulatória da IA.
Para o Pró-Reitor de Pesquisa e Pós-graduação, Carlos Eduardo Lobo e Silva, é importante que a Universidade esteja sempre atenta no apoio aos seus pesquisadores.
“O conhecimento que a própria universidade possui, especialmente naqueles temas mais transversais e próprios para as pesquisas multidisciplinares, deve ser disseminado entre pesquisadores de diferentes áreas. E a inteligência artificial talvez seja hoje o tema de disseminação mais urgente”.
Além disso, o Pró-Reitor destaca ainda outras iniciativas da PROPESQ em apoio ao pesquisador:
“Em 2023, promovemos workshops sobre temáticas mais específicas, como a utilização da ferramenta REDCap e, ainda, sobre estratégias para a elaboração de projetos de pesquisa para a captação de recursos financeiros. Cabe ressaltar que nossa comunidade científica sempre responde de forma muito positiva a essas iniciativas”.
A inteligência artificial (IA) é um campo de estudo que se concentra no desenvolvimento de sistemas capazes de realizar tarefas que normalmente comportam inteligência humana, como reconhecimento de fala, visão computacional, aprendizado de máquina, processamento de linguagem natural, entre outras. No entanto, a IA também tem sido objeto de preocupação e debate em torno de questões como privacidade, segurança e ética.
O pesquisador da Escola Politécnica Rafael Heitor Bordini destaca que a IA pode melhorar significativamente a eficiência e produtividade em muitos setores, como saúde, transporte, manufatura e serviços financeiros, mas que seu uso deve ser cuidadoso. O docente destaca que é preciso construir uma regulamentação do uso da tecnologia e incentivar o desenvolvimento de pesquisas acerca do assunto, para garantir melhor conhecimento sobre o alcance e impacto da IA na sociedade.
Leia mais: Centro de Pesquisa da PUCRS é referência em projetos de Ciência de Dados e Inteligência Artificial
“É comum que tenhamos receios ou dúvidas quando somos apresentados a uma nova tecnologia. Porém não resolve o problema parar com a pesquisa, como tem sido proposto; o importante é acelerar as discussões sobre ética e regulamentação da IA pela sociedade. Além disso, precisamos conscientizar a população neste momento que a IA, em particular sistemas como o ChatGPT, não é totalmente confiável e pode piorar o problema de desinformação em larga escala, um dos grandes problemas atuais.”
Os sistemas de IA são projetados para aprender e se adaptar a partir dos dados disponíveis, permitindo que eles possam melhorar continuamente suas habilidades e desempenho ao longo do tempo. Isso é feito por meio de algoritmos e técnicas de aprendizado de máquina que são capazes de identificar padrões e insights a partir de grandes conjuntos de dados.
De acordo com Bordini, é difícil pensar algum campo da atividade humana que não tenha pesquisas relevantes utilizando IA. Dentre alguns exemplos apresentados pelo docente estão o apoio ao diagnóstico em aplicações voltadas para a área da saúde, predição do preço de ações no mercado financeiro, agricultura de precisão, carros autônomos, controle de processos industriais, monitoração de áreas de proteção ambiental, etc.
A PUCRS possui o grupo de pesquisa em Inteligência Artificial Aplicada à Saúde, coordenada pelo professor Bordini. Dentre as principais frentes de atuação, se destaca a participação em redes de pesquisa e inovação a nível estadual e nacional, como o CIARS e o CIIA-Saúde, em que a PUCRS é responsável pelo tema de predição de tempo de internação de pacientes hospitalizados, utilizando técnicas de aprendizado de representação do histórico clínico de pacientes.
O grupo de pesquisadores também atua em projetos que visam estudar o impacto de biomarcadores na predição de desfechos de pacientes com doença renal crônica, coordenado pelo professor e pesquisador da Escola de Medicina Carlos Eduardo Poli de Figueiredo. Além disso, são desenvolvidos estudos com sistemas de diálogos multi-agentes em linguagem natural com aplicação em alocação e gerência de leitos hospitalares.
Mesmo com todos estes usos da IA em diferentes setores da sociedade, os sistemas que geram imagens e textos são os que mais viralizaram e impressionam toda a população. O professor da Escola Politécnica explica que o ChatGPT e o GPT4 são LLMs (Large Language Models, do inglês Grandes Modelos de Linguagem) de uma empresa chamada OpenAI. Sistemas como esses são frequentemente chamados de sistemas de Inteligência Artificial Generativa, nesse caso que recebem textos em qualquer língua na entrada e que geram outros textos na saída.
De acordo com o docente, o modelo de linguagem é treinado por pesquisadores e profissionais da área com uma quantidade muito grande de textos, e o sistema aprende essencialmente probabilidades de palavras virem acompanhadas de outras. Esses sistemas baseados em LLM já demonstravam capacidades revolucionárias como por exemplo de resumir textos longos, fazer tradução e de produzir textos novos no estilo de algum escritor em particular.
Em alta discussão na sociedade, realmente os sistemas que compreendem e geram linguagem natural e imagens (DALL-E, GPT4, etc.) são os que mais interessam e também assustam as pessoas. Bordini conta que esse clamor acontece justamente porque linguagem é a base da civilização, e que, quando o GPT4 mostra uma habilidade as vezes comparável com a capacidade humana, não é de se espantar que as pessoas pensem em consequências desastrosas. O docente ressalta também que mesmo com este espanto, é importante conscientizar que são apenas modelos estatísticos de linguagem.
“Não há motivos para se pensar que desejos e ambições próprias estão guiando o sistema. A princípio o sistema está somente gerando textos estatisticamente plausíveis dado o texto de entrada. Dependendo do que se diz para o sistema, é de se esperar que ele gere um texto que diz que ele tem desejos próprios e quer ser livre. Porém isso é só um padrão de associação com base nos textos que foram usados para treinar o modelo”, alerta o pesquisador.
Leia também: Conheça as diferenças entre os cursos da área de TI
A utilização da Língua Brasileira de Sinais (Libras) é uma forma de garantir a preservação da identidade das pessoas com deficiência auditiva, além de contribuir para a valorização e reconhecimento da cultura surda. É por meio dessa língua que o/a surdo/a interage com sociedade, constrói sua identidade e exerce sua cidadania. Para contribuir com a expansão das Libras, pesquisadores da PUCRS estão desenvolvendo um projeto financiado pelo Google para diminuir a dificuldade de comunicação enfrentada por esse público.
O projeto é coordenado pelo pesquisador da Escola Politécnica Rodrigo Barros foi contemplado pelo Google Award for Inclusion Research, que premia pesquisas inovadoras com alto impacto social. No ano de 2022, apenas cinco universidades da América Latina foram contempladas. Atualmente em etapa de desenvolvimento, a pesquisa que será desenvolvida na PUCRS busca romper grandes barreiras, conforme explica o coordenador da iniciativa:
“Nosso maior desafio está no desenvolvimento de redes neurais capazes de identificar as características dos sinais a partir de vídeos e traduzir essa representação em palavras equivalentes no Português brasileiro. Além disso, estamos trabalhando em outros desafios que são comuns a todas as linguagens de sinais, como o fato de diferentes sinais com mesmo significado, ou sinais com múltiplas traduções e até mesmo variações regionais”, destaca.
Desenvolvido pelo Laboratório de Machine Learning Theory and Applications Lab (Malta) do Programa de Pós-Graduação em Ciência da Computação da PUCRS, o projeto busca contribuir com a maior base de dados anotada de sinais por meio de uma coleta de todas as informações disponíveis na internet, para oferecer uma ampla gama de informações confiáveis e melhorar a pesquisa e o desenvolvimento na área de processamento de sinais em Libras.
As redes neurais artificiais são modelos matemáticos de aprendizado de máquina (machine learning), uma das mais importantes subáreas da Inteligência Artificial (IA). Com leve inspiração no funcionamento do cérebro humano, são utilizadas para resolução das mais diversas tarefas, que vão desde o desenvolvimento de agentes conversacionais (chatbots) até criação de novos conteúdos visuais. Para este projeto, as redes neurais criadas serão responsáveis por compreender os sinais presentes nos vídeos e traduzi-los para o Português brasileiro, e vice-versa.
Para a execução do projeto, o grupo conta com uma equipe multidisciplinar composta pelos professores Lucas Silveira Kupssinskü (Escola Politécnica) e Janaína Pereira Claudio (Escola de Humanidades), assim como bolsistas de iniciação científica, mestrandos e doutorandos. Com o apoio financeiro do Google, será possível realizar a compra de equipamentos específicos para pesquisa em redes neurais (GPUs) e também viabilizar o desenvolvimento das soluções em software.
O projeto ainda está em sua etapa inicial, com os pesquisadores trabalhando para coletar e realizar a curadoria dos mais de 20 mil vídeos de sinais que irão compor o conjunto de dados. Conforme explica o docente Rodrigo Barros, depois da coleta de cada vídeo, será preciso avaliar os sinais de acordo com o conjunto já coletado, já que Libras é suscetível a pares polissêmicos (uma palavra pode ter mais de um sinal ao redor do país).
“Este projeto é de grande importância para a sociedade, em particular para deficientes auditivos, já que tem o potencial de melhorar significativamente a qualidade de vida e a inclusão destas pessoas. Com a nossa pesquisa, buscamos diminuir e, quem sabe, eliminar dificuldades de comunicação através de um método totalmente automático de tradução bidirecional”, finaliza Barros.
Leia também: Educação inclusiva: como a Universidade pode apoiar estudantes autistas
Em tempos de domínio da tecnologia e seus rápidos avanços, novos debates surgem sobre quem responde em caso de crimes cibernéticos envolvendo inteligência artificial (IA) e robótica. O catedrático de Direito Penal da Universidade do País Basco (Espanha), o advogado espanhol e doutor em Medicina Carlos Romeo Casabona é especialista no tema e foi o palestrante convidado, no último dia 17, para a abertura do Congresso Internacional de Ciências Criminais, promovido pelo Programa de Pós-Graduação em Ciências Criminais da Escola de Direito. Doutor Honoris Causa por seis universidades ibero-americanas e diretor da Cátedra Interuniversitária de Direito e Genoma Humano, falou sobre Inteligência Artificial – Robótica e Responsabilidade Penal.
Casabona reflete que, com o advento da IA, os juristas estão preocupados com o que está protegido pelo direito penal. Cita como exemplo de infração com intervenção humana a alteração de um sistema de controle aéreo provocando um acidente fatal. Neste caso, a tragédia decorrente de manipulação em um software não teria um responsável direto por não ser possível identificá-lo. Outro exemplo, seria a alteração no sistema eletrônico de tratamento de um doente internado em UTI levando à piora de seu quadro de saúde.
O grande desafio atual, no entanto, segundo Casabona, são os sistemas autônomos de IA que permitem a autorreprogramação, muitas vezes não respondendo ao que foi previamente programado. Eles também são suscetíveis a falhas, mas sem uma interferência humana maliciosa como nos exemplos anteriores. A pergunta que se faz é: os robôs podem ser criminalmente responsáveis? “Ao não aplicar o conceito de culpa a um robô ou sistemas inteligentes, porque a culpa é inerente aos seres humanos e não a máquinas, abre-se uma nova discussão para a doutrina jurídica, embora existam poucos especialistas no tema”, observa o jurista.
Em muitos países, a responsabilidade penal para delitos produzidos por sistemas de IA autônomos é atribuída às pessoas jurídicas – mas quem responde criminalmente são as pessoas físicas que as representam. Na opinião de Casabona, apoiada por correntes de pensamento jurídico, quem deveria responder por este tipo de crime seriam os seres humanos que participaram do desenvolvimento do software de IA.
Mas o que o jurista espanhol mais defende é a intervenção pública com medidas preventivas para controlar sistemas de IA que podem oferecer algum tipo de risco. Casabona cita como exemplo países em que carros com mais de dez anos passam por uma inspeção anual para avaliar se não representam risco para os condutores e pedestres. “Algo parecido deveria ser desenvolvido para a IA. Temos de chegar a outras soluções, que não sejam só, no momento, responsabilizar os criminosos por sistemas inteligentes autônomos. Existem medidas que podem ser tomadas antes”, finaliza.