Numa altura de grande debate sobre desinformação, a Nos avançou com o desenvolvimento de uma prova de conceito para combater conteúdos manipulados. A tecnologia, que junta a segurança da blockchain (um registo digital descentralizado) com a capacidade de análise da inteligência artificial (IA), encontra-se em fase de testes. A empresa confirmou em comunicado que o pedido de patente já foi submetido ao Instituto Europeu de Patentes.
A iniciativa nasceu do “compromisso firme com a inovação tecnológica responsável”, explicou João Ferreira, diretor de inovação da Nos, em declarações ao PÚBLICO. Perante a “proliferação crescente de fake news e conteúdos manipulados”, a empresa sentiu necessidade de usar a tecnologia para responder a “problemas e necessidades efetivas das pessoas”, considerando este combate uma “questão premente”.
O ADN da voz e o combate à fraude
A solução tecnológica funciona, segundo a Nos, em duas dimensões. Por um lado, a blockchain é usada para comparar novos blocos de informação com dados encriptados previamente registados, numa lógica de verificação de coerência e autenticidade face ao histórico. Por outro, modelos avançados de machine learning (aprendizagem automática) são usados para analisar o “ADN” dos materiais originais, procurando sinais de manipulação digital.
É nesta segunda dimensão que surge uma das aplicações práticas mais diretas para a operadora: o combate à fraude. João Ferreira detalhou este ponto na entrevista: “Através da análise de componentes como o áudio, podemos identificar vozes clonadas”. O responsável explica que a ferramenta analisa “elementos como a respiração, as pausas e as características próprias da voz de cada pessoa”. O objetivo, diz, é prevenir que indivíduos “se façam passar por outros e adquiram serviços em seu nome, protegendo a integridade dos nossos clientes e a segurança dos nossos serviços”.
Aplicável a todo o tipo de plataformas
Embora o combate à fraude seja um objetivo claro, o diretor de inovação da Nos garante que o projeto tem um “objetivo duplo”. Além do uso interno, a empresa vê esta ferramenta como uma contribuição social. “O nosso objetivo é (…) usar a tecnologia para fazer a diferença na sociedade e ter um impacto positivo para as pessoas”, afirmou João Ferreira. “Pretendemos, caso a tecnologia se comprove relevante e útil, abri-la à sociedade”.
A ideia original, admite, estava focada nas “redes sociais, porque é a plataforma onde há uma maior veiculação de conteúdos manipulados”. Contudo, o âmbito do projeto alargou-se e, segundo João Ferreira, “é possível usar a ferramenta em todas as plataformas online“.
A equipa da Nos Inovação está, “neste momento, mais focada na tecnologia de detecção”. A forma como a ferramenta será usada no futuro, seja de forma proativa ou recativa, e se será disponibilizada ao utilizador final ou integrada nas plataformas, “é apenas uma questão de configurarmos a ferramenta para que ela funcione da forma como nos for mais útil”, esclareceu.
Quanto à fiabilidade, João Ferreira refere que os “múltiplos estudos, testes internos e análises” realizados como prova de conceito deram “resultados promissores”. No entanto, e seguindo a prudência que a complexidade do tema exige, o responsável da Nos é categórico: “Claro que nenhuma ferramenta será 100% eficaz, há sempre uma margem de erro”. A luta contra a desinformação é um alvo em movimento. João Ferreira conclui que esta solução terá de “estar a ser continuamente melhorada e optimizada”, até porque, recorda, “os próprios sistemas de IA [que geram desinformação] também estão também a evoluir”.
Fonte: www.bing.com
Link da Fonte
