Utilizar conhecimentos e tecnologias de mineração de eventos para criar ferramentas de previsão de comportamentos já é uma realidade em áreas como agricultura e educação. Com o apoio das principais agências de fomento à pesquisa do Brasil, estudos para encontrar padrões e frequências de determinados aspectos se baseiam em notícias de fontes confiáveis para tecer cenários futuros. Agora, a tática está sendo aplicada ao coronavírus – e isso pode ser uma arma e tanto contra a pandemia.
Empenhados em coletar informações mencionando o novo coronavírus ou a doença covid-19, pesquisadores do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP se dedicam ao aprimoramento das técnicas de inteligência artificial da Websensors, ferramenta que utiliza a extração automática de eventos a partir de notícias. Com ela, é possível identificar assuntos, nomes de pessoas e organizações, tudo isso com localidades georreferenciadas.
Trata-se de um suporte a mais para especialistas dedicados ao combate à doença que tomou conta dos noticiários nos últimos meses e que, ao que tudo indica, continuará muito presente em nosso dia a dia por algum tempo. Desta maneira, é possível traçar estratégias com base no que foi bem-sucedido e, também, no que não deu certo no combate ao vírus.
Solange Rezende, coordenadora do projeto, explica a importância de algo do tipo: “Quando olhamos para a evolução futura da curva de contaminação de uma doença e levamos em conta apenas dados sobre contágios que aconteceram no passado, temos uma visão limitada do problema. Se for possível enriquecer essa visão, adicionando à previsão informações extraídas de fontes confiáveis, acreditamos que poderemos incrementar nosso olhar e, quem sabe, construir modelos preditivos mais próximos da realidade”.
Como funciona no caso do coronavírus?
É fato que há uma quantidade massiva de informações circulando pela internet sobre a pandemia e que isso tende a aumentar cada vez mais. Sendo uma fonte de dados do mundo inteiro, com a ferramenta certa, é possível utilizar a rede como uma espécie de sensor que possibilita construir modelos para prever o que vem por aí.
Com o Websensors, inúmeros links são captados por meio da GDELT, uma plataforma internacional que rastreia notícias de cada canto do globo em mais de 100 idiomas. Utilizando filtros que categorizam os termos desejados e a validade das fontes, é realizado um pré-processamento, transformando textos em um conjunto de sinais – algo com que um computador possa trabalhar, afinal, a capacidade humana é um tanto quanto limitada em termos de velocidade quando comparada a um sistema de inteligência artificial. Depois, a mágica começa a acontecer.
Essas informações são lançadas em uma rede neural, responsável pela identificação de padrões variados, desde os mais sutis até os mais evidentes. Por exemplo, se uma determinada quantidade de notícias fala sobre a curva de contaminação de algum lugar, todos os dados são levados em conta e ampliam o modelo criado virtualmente – em uma análise que pode considerar tanto a taxa de recuperação de determinada faixa etária quanto as ações tomadas que podem explicar o fenômeno, além de outros detalhes.
Desafios pela frente
Entretanto, há um obstáculo para o sucesso total desse tipo de abordagem. “Acrescentando os eventos, de fato há um ajuste para cima, com a previsão de mais casos, embora a gente precise fazer a ressalva de que ainda temos poucos dados no Brasil para validar estatisticamente essa análise preditiva”, considera Ricardo Marcacini, também coordenador do projeto. Esse problema, claro, se aplica no mundo todo – dificultando a vida de cientistas que podem se valer da ferramenta.
Ainda assim, combater o coronavírus em diversas frentes pode fazer uma baita diferença neste desafio global. Com o processo de coleta contínuo e desenvolvimento constante de inteligência artificial, podemos contar com mais um auxílio e esperar pelo melhor.
FONTE:TECMUNDO