Esforço inovador tenta descodificar a linguagem das baleias

Através de inteligência artificial e do estudo meticuloso de cachalotes, os cientistas esperam compreender o que estes seres das profundezas estão a comunicar.

Fotografias Por Brian Skerry
Publicado 27/04/2021, 15:27
comunicação das baleias

Os cachalotes, incluindo este adulto e cria a nadar perto de Dominica, comunicam através de cliques. Naquele que pode ser o maior esforço de comunicação interespécies da história, os cientistas planeiam usar machine learning para tentar descodificar o que estes animais dizem uns aos outros.

Fotografia de Brian Skerry

Numa manhã fria de primavera em 2008, Shane Gero ouviu um par de baleias a conversar. Shane, um biólogo canadiano, estava a rastrear cachalotes na ilha de Dominica, quando duas crias macho da mesma família surgiram não muito longe do seu barco. Os animais, com os apelidos Drop e Doublebend, juntaram as suas enormes cabeças e começaram a falar.

Os cachalotes “falam” através de cliques em cadências rítmicas chamadas codas. Durante três anos, Shane usou gravadores subaquáticos para captar as codas de centenas de baleias. Mas Shane nunca tinha ouvido algo assim. As baleias emitiram cliques durante 40 minutos, por vezes enquanto estavam imóveis, e também quando rodopiavam os seus corpos em conjunto como se fossem uma corda, raramente ficando em silêncio durante muito tempo. Shane nunca tinha desejado tão desesperadamente compreender o que as baleias estavam a dizer e sentia como se estivesse a escutar dois irmãos a brincar no quarto. “Eles estavam a conversar e a brincar como irmãos”, diz Shane. “Havia claramente muita coisa a acontecer.”

Nos 13 anos seguintes, Shane Gero, um explorador da National Geographic, iria registar e conhecer centenas de cachalotes. Mas Shane estava sempre a lembrar-se da revelação que tivera quando estava a ouvir Drop e Doublebend. Se os humanos algum dia decifrassem a linguagem das baleias, ou se determinassem que as baleias possuíam algo que poderíamos verdadeiramente chamar de linguagem, precisaríamos de correlacionar os seus cliques com o contexto. A chave para desbloquear a comunicação das baleias passaria por saber quem são os animais e o que estão a fazer enquanto emitem os seus sons.

O biólogo marinho Shane Gero conheceu centenas de cachalotes perto de Dominica, incluindo estes animais a quem chamou Family Unit F (Grupo Familiar F). Shane e a equipa do Projeto CETI esperam que a ligação entre os cliques e o comportamento das baleias ajude a revelar o significado das suas vocalizações.

Fotografia de Brian Skerry

Um dos desejos mais antigos da humanidade envolve a noção encantadora de que um dia conseguiremos conversar com outras espécies. Nos anos desde que Shane sentiu aquela revelação, e em parte por causa disso, a possibilidade de preencher esta lacuna na comunicação tornou-se menos fantasiosa. Na semana passada, uma equipa de cientistas anunciou que tinha embarcado numa odisseia de cinco anos para desenvolver o trabalho de Shane através de um projeto de investigação com tecnologia de ponta, para tentar decifrar o que os cachalotes estão a dizer uns aos outros.

Este tipo de tentativa teria parecido uma loucura há poucos anos. Mas este esforço não depende apenas de Shane. A equipa inclui especialistas em linguística, robótica, machine learning e engenharia de câmaras. Os investigadores vão apoiar-se fortemente nos avanços de inteligência artificial (IA), que já consegue traduzir uma linguagem humana para outra. Este esforço, chamado Projeto CETI (Cetacean Translation Initiative), é provavelmente o maior esforço de comunicação interespécies da história.

A equipa já está a trabalhar na construção de dispositivos especializados para a gravação de áudio e vídeo. O objetivo é registar e analisar milhões de codas de baleias. A esperança é expor a arquitetura subjacente da conversa das baleias, ou seja, descortinar quais são as unidades que compõem a comunicação das baleias. Será que têm gramática, sintaxe ou algo análogo a palavras e frases? Os especialistas vão acompanhar a reação das baleias enquanto estas emitem ou ouvem cliques. Através dos avanços feitos no processamento de linguagem natural – o ramo da inteligência artificial que ajuda a Alexa e a Siri a responder aos comandos de voz – os investigadores vão tentar interpretar as informações.

Nunca se tentou fazer algo parecido com isto. Treinamos cães para responderem aos nossos comandos, e os golfinhos aprenderam a imitar os assobios humanos. Ensinamos chimpanzés e gorilas a usar linguagem gestual, e bonobos a responderem a perguntas tocando em símbolos num teclado. E um elefante em Seul, chamado Koshik, consegue até falar algumas palavras em coreano – a sério.

Mas o objetivo não é fazer com que as baleias compreendam os humanos. É para compreender o que os cachalotes estão a dizer uns aos outros enquanto vivem na natureza.

‘Parece código Morse’

O projeto começou com outro biólogo marinho e com um conceito simples: o de que os grandes avanços geralmente acontecem quando os maiores especialistas de diferentes disciplinas colaboram entre si.

David Gruber também é um explorador da National Geographic, mas os seus interesses há muito que ultrapassam as fronteiras convencionais. Este professor de biologia e ciências ambientais na Universidade City de Nova Iorque já usou submarinos para examinar recifes de coral. Mas também descobriu uma tartaruga marinha biofluorescente nas Ilhas Salomão, descobriu que os cardumes de peixes-lanterna usam as suas luzes brilhantes para coordenarem movimentos, estudou as moléculas que fazem com que os tubarões Scyliorhinidae e algumas enguias brilhem e construiu uma câmara para imitar a visão que um tubarão tem do mundo. David também já colaborou com um perito em robótica para desenvolver um dispositivo delicado de seis tentáculos que permite aos investigadores apanhar medusas sem as magoar.

“Os linguistas afirmam que até os animais não humanos mais inteligentes carecem de um sistema de comunicação a que possamos chamar linguagem. Mas será que as baleias podem ser uma exceção?”

Em 2017, enquanto bolseiro do Instituto Radcliffe da Universidade de Harvard, David Gruber, que também é mergulhador, ficou fascinado por cachalotes, as maiores baleias dentadas, depois de ler um livro sobre mergulhadores que as estudam. Um dia, enquanto ouvia codas de baleias no seu portátil, outra bolseira do Instituto Radcliffe, Shafi Goldwasser, ficou curiosa com os sons.

“São realmente interessantes – parecem código Morse”, disse Shafi a David. Naquela época, Shafi estava a dar palestras a um grupo de bolseiros de Radcliffe sobre machine learning, um subcampo da inteligência artificial que emprega algoritmos para encontrar e prever padrões em dados. Hoje, o machine learning está presente em tudo, desde mecanismos de investigação a aspiradores robóticos domésticos, como o Roomba, até veículos autónomos. Shafi pediu a David para partilhar os cliques com o seu grupo de Radcliffe.

O grupo a que Shafi se referia incluía algumas das mentes mais especializadas em computadores. Shafi Goldwasser é cientista de computação e uma das maiores especialistas mundiais em criptografia. Michael Bronstein, chefe do departamento de machine learning do Imperial College de Londres, criou uma empresa para detetar notícias falsas através de machine learning que mais tarde vendeu ao Twitter. O grupo ficou intrigado com a apresentação de David Gruber. Será que o machine learning podia ajudar os humanos a compreender a comunicação animal?

David Gruber sentiu que esta era uma oportunidade. David passou uma carreira eclética a tentar fazer com que as pessoas abraçassem a magia dos oceanos, concentrando-se em coisas que ele considerava notáveis, como corais, biofluorescência e medusas. Talvez este fosse o projeto capaz de despertar a imaginação do público, inspirando as pessoas a deleitarem-se com os mistérios e as maravilhas do mar. “Eu tinha a ideia de que, se eu conseguisse fazer com que as pessoas se apaixonassem por medusas, poderiam apaixonar-se por qualquer coisa”, diz David. “Mas há algo sobre as baleias que realmente desperta a curiosidade humana.”

David precisava de falar com alguém que percebesse de baleias. Foi então que contactou Shane Gero, fundador do Projeto Cachalote de Dominica, que rastreia a dinâmica das famílias de baleias. Shane concordou em ouvir David.

Os linguistas afirmam que até os animais não humanos mais inteligentes carecem de um sistema de comunicação a que possamos chamar linguagem. Mas será que as baleias podem ser uma exceção? A linguagem humana evoluiu, pelo menos em parte, para mediar as relações sociais, e Shane demonstrou que os cachalotes têm vidas sociais complexas.

No reino animal, os cachalotes têm os maiores cérebros de todos, até seis vezes maiores do que os nossos. Estes animais vivem em estruturas sociais dominadas por fêmeas e trocam codas numa espécie de dueto em staccato, principalmente quando estão perto da superfície. Os cachalotes dividem-se em clãs de centenas ou milhares de individuos, que se identificam através de códigos diferentes de cliques. De certa forma, os clãs falam dialetos diferentes. As baleias também se identificam através de padrões específicos de cliques, que parecem usar como nomes. E aprendem as suas codas da mesma forma que os humanos aprendem a linguagem, balbuciando cliques enquanto são jovens, até que aprendem o repertório da família.

Ao longo dos anos, Shane identificou centenas de indivíduos de dois enormes clãs de Dominica, e consegue reconhecer muitos à primeira vista através das marcas exclusivas que têm nas barbatanas. Ao analisar o ADN de amostras fecais e de pele de baleias, Shane identificou avós, tias, irmãos e irmãs.

E também mantém registos detalhados, incluindo milhares de gravações com anotações exaustivas que descrevem quem está a falar, a que clã pertencem, com quem estavam e o que estavam a fazer naquele momento.

Eram dados mais do que suficientes para fazer um teste. Aplicando técnicas de IA a partes do áudio captado por Shane, os especialistas em machine learning treinaram um computador para identificar cachalotes individuais a partir dos seus sons. O computador acertou mais de 94% das vezes.

Entusiasmado, David reuniu um grupo de trabalho para expandir estes resultados promissores. Para além de David, Shane e dos colegas de computação do Instituto Radcliffe, a equipa conta com Roger Payne, biólogo de baleias e vencedor do Prémio MacArthur, que popularizou as canções hipnotizantes das baleias-jubarte nas décadas de 1960 e 1970, ajudando a iniciar o movimento “Salvem as Baleias”. Neste grupo também está Robert Wood, especialista em robótica de Harvard que, juntamente com David Gruber, construiu o dispositivo de manuseio de medusas e cujo laboratório construiu um origami auto-dobrável e um drone voador do tamanho de um inseto. E também conta com Daniela Rus, também ela vencedora do Prémio MacArthur e diretora de ciências de computação e inteligência artificial do Instituto de Tecnologia de Massachusetts (MIT).

Todos concordaram que, pela primeira vez, os humanos podiam finalmente ter as ferramentas para começar a compreender mais detalhadamente o que os animais estão a dizer – e até mesmo os seres que vivem maioritariamente na escuridão e que caçam lulas a 300 metros de profundidade.

O facto de estes animais dependerem quase exclusivamente de informações acústicas pode até simplificar a tarefa. Num restaurante a poucos quarteirões de distância de Harvard Yard, a equipa traçou planos para um novo programa Apollo, focado na tradução da fala de alienígenas das profundezas. Um dos especialistas chegou até a sugerir que este trabalho, se for bem-sucedido, pode fornecer uma estrutura para se conversar com vida extraterrestre. “Fiquei a olhar à minha volta à espera de ver alguém a rir, mas a única coisa que vi foram vários acenos de cabeça a concordar”, diz David.

O machine learning pode gerar inovações

Isto não significa que as probabilidades estejam a favor dos cientistas.

Aprendemos muito nas últimas décadas sobre as formas únicas como os animais comunicam entre si. Os cães-da-pradaria variam nos seus chamamentos dependendo se estão a ser abordados por falcões, coiotes ou pessoas. E chegam até a produzir sons diferentes se a pessoa que avistam é alta ou baixa, ou se está vestida de branco ou vermelho. Algumas espécies de macacos emitem sons de alarme distintos para perigos específicos, gritando de forma diferente quando são abordados por um leopardo ou por uma águia.

Estas descobertas sobre comunicação animal são cada vez mais auxiliadas por IA. Em 2016, através de machine learning, investigadores descodificaram diferenças entre os sons dos morcegos Rousettus aegyptiacus que disputavam comida e os que lutavam para conseguir um local de repouso. Os ratos e as ratazanas comunicam através de sons que vão para além da capacidade de audição humana. Em 2019, ao transformar os sons de roedores em sonogramas e a colocar as imagens resultantes em redes neurais artificiais, que foram parcialmente inspiradas nos circuitos do cérebro humano, os cientistas associaram sons diferentes a comportamentos diferentes, como fugir do perigo ou tentar atrair um parceiro. Os investigadores chamam “DeepSqueak” ao seu algoritmo.

Os cachalotes passam apenas cerca de 10 minutos a cada hora perto da superfície, pelo que os investigadores estão a construir um conjunto de gravadores de áudio e vídeo para captar o que os animais dizem uns aos outros nas profundezas. A inteligência artificial irá depois procurar padrões na conversa.

Fotografia de Brian Skerry

Estas descobertas são agora possíveis porque os avanços de machine learning aconteceram rapidamente na última década, conforme os algoritmos se tornaram mais sofisticados e o poder de processamento dos computadores aumentou exponencialmente.

Parte da aprendizagem feita pelos computadores é “supervisionada”, o que significa que os cientistas fornecem exemplos de algoritmos anotados por humanos para os treinar. Ao analisarem milhares de imagens com a etiqueta “gatos”, por exemplo, os algoritmos conseguem aprender a reconhecer gatos noutras fotografias.

Mas as redes neurais conseguem encontrar padrões em coisas como a linguagem sem a ajuda inicial de humanos. Ao alimentar uma rede com milhões de histórias do Google News, juntamente com frases sem elementos – “Ser ou não _” – esta rede conseguiu construir um modelo matemático para a linguagem. Este modelo aprendeu depois associações entre palavras, como por exemplo, “Paris” está para “França” como “Roma” está para “Itália”. Estes modelos são agora a base do processamento de linguagem natural e são usados, por exemplo, para prever se uma crítica de um restaurante no Yelp é negativa ou para detetar spam no email.

Mas há vários desafios. Para os humanos, a tradução automática é possível em parte porque as associações de palavras geralmente são semelhantes entre os idiomas; “lua” e “céu” são palavras que se relacionam-se da mesma forma que as palavras francesas “lune” e “ciel”. “Com as baleias, a grande questão passa por saber se alguma destas coisas está sequer presente”, diz Jacob Andreas, especialista em processamento de linguagem natural do MIT e membro da equipa do Projeto CETI. “Será que existem unidades mínimas dentro deste sistema de comunicação que se comportam como uma linguagem, e será que existem regras para as colocar juntas?”

Para responder a esta questão, a equipa quer usar uma série de técnicas. Por exemplo, uma abordagem de rede profunda faz tentativas aleatórias para delinear um sistema de regras para a linguagem. De seguida, a rede verifica se as “unidades” de conversa correspondem a essas regras. Se não corresponderem, a rede faz ajustes e tenta novamente. “Os computadores fazem este processo de ajuste e validação de regras muito depressa, repetindo-o milhares ou milhões de vezes para produzir um conjunto de regras que explicam bem os dados”, diz Jacob.

É óbvio que os progressos dependem da recolha de dados suficientes por parte dos investigadores. O machine learning requer uma enorme quantidade de informações, mas Shane tem apenas milhares de gravações. Encontrar padrões na fala das baleias provavelmente irá exigir dezenas de milhões de codas, talvez mais.

E tal como Shane suspeitava em relação a Drop e Doublebend, os cientistas acreditam que vai ser necessário combinar a comunicação com o comportamento. Será que existe uma coda específica que aparece antes da caça ou uma sequência quando as baleias decidem acasalar?

“É como identificar comportamentos numa festa”, diz David. Se espalharmos alguns microfones pela festa, ouvimos alguns trechos de conversas. Mas se observarmos as pessoas – ver quem é que toca no braço de alguém, quem é que está a perscrutar a sala à procura de uma companhia melhor – “todo o cenário começa a fazer mais sentido”, diz David.

Revolucionar o estudo da comunicação animal

Na semana passada, a equipa revelou os principais passos que está tomar para este estudo. Os líderes do CETI estabeleceram uma parceria com Dominica para implementarem mais tecnologia de monitorização de baleias nas águas do país. O CETI também foi designado Projeto Ted Audacious, que vinculou este esforço a oito grandes doadores filantrópicos interessados em apoiar ideias ousadas. A equipa também recebeu financiamento da National Geographic Society.

Os investigadores do CETI já passaram um ano a desenvolver uma enorme variedade de sensores subaquáticos sofisticados e de alta resolução que irão registar o som 24 horas por dia numa vasta parte da área de estudo de baleias de Shane. Três destes sistemas de escuta, cada um preso a uma boia na superfície, vão ficar suspensos várias centenas de metros até ao fundo, com hidrofones a cada centena de metros.

“Trata-se de ouvir as baleias no seu próprio ambiente, nos seus próprios termos. É a ideia de que queremos saber o que elas estão a dizer – e que nos importamos.”

por DAVID GRUBER, BIÓLOGO MARINHO, EXPLORADOR DA NATIONAL GEOGRAPHIC

O Laboratório de Tecnologia de Exploração da National Geographic e Robert Wood, o especialista em robótica de Harvard, que também é explorador da National Geographic, ajudaram a projetar uma nova iteração de câmara de vídeo que se cola às baleias através de ventosas. Esta câmara, ao contrário das versões anteriores, consegue suportar as pressões da profundidade onde as baleias caçam, tirar fotografias na escuridão quase total e gravar áudio de alta qualidade.

No MIT, Daniela Rus está a trabalhar em novos dispositivos robóticos, ajudando a desenvolver drones aéreos, flutuantes e subaquáticos que conseguem gravar som e vídeo de forma discreta. Recentemente, Daniela ajudou a construir um robot nadador que se desloca silenciosamente, imitando os movimentos ondulantes das barbatanas dos peixes de recife.

“Queremos aprender o máximo possível”, diz David. “Como é que está o tempo? Quem é que está a falar com quem? O que está a acontecer a 10 quilómetros de distância? A baleia tem fome, está doente, grávida, a acasalar? Mas queremos ser o mais invisíveis possível enquanto o fazemos.”

Especialistas externos dizem que o CETI pode revolucionar elementos na investigação de vida selvagem. Janet Mann, professora na Universidade de Georgetown, que estuda golfinhos na Austrália há décadas, diz que o projeto pode ser “inovador para os cachalotes, mas também para o estudo de outros sistemas de comunicação animal”.

Michelle Fournet, ecologista acústica da Universidade Cornell, diz que o projeto aborda uma dificuldade fundamental na investigação animal. As pessoas, incluindo os cientistas, tendem a ver padrões semelhantes aos dos humanos no comportamento animal. “Vemos uma baleia-jubarte a abanar a barbatana peitoral e pensamos que está a dizer olá”, diz Michelle. “Mas estas baleias geralmente estão apenas a ser agressivas. A inteligência artificial consegue filtrar os nossos preconceitos e encontrar significados com mais precisão na comunicação e no comportamento.”

Para os investigadores do CETI, muito do valor está na própria jornada de descoberta. A missão Apollo colocou pessoas na lua, mas ao longo do caminho os humanos inventaram calculadoras, velcro e transístores, e ajudaram a lançar a era digital que agora torna este projeto possível. Mesmo que o CETI nunca decifre o código dos cachalotes, os investigadores irão continuar a fazer avanços significativos de machine learning, na comunicação animal e na nossa compreensão de uma das criaturas mais misteriosas do mundo.

E, daqui a alguns anos, se a estrutura das vocalizações dos cachalotes se tornar mais clara, a equipa pode tentar comunicar com as baleias – não para manter um diálogo entre espécies, mas para ver se as baleias respondem de forma previsível. O objetivo é validar a avaliação da equipa sobre a comunicação dos cachalotes.

“Depois temos a questão: O que lhes vamos dizer? Mas isso afasta-se de certa forma do objetivo principal”, diz Shane. “Isso presume que as baleias têm uma linguagem para falar sobre nós, sobre os barcos ou o tempo ou o que quer que lhes possamos perguntar.”

David concorda. “Trata-se de ouvir as baleias no seu próprio ambiente, nos seus próprios termos. É a ideia de que queremos saber o que elas estão a dizer – e que nos importamos.”
 

Este artigo foi publicado originalmente em inglês no site nationalgeographic.com

Continuar a Ler

Descubra Nat Geo

  • Animais
  • Meio Ambiente
  • História
  • Ciência
  • Viagem e aventuras
  • Fotografia
  • Espaço
  • Vídeos

Sobre nós

Inscrição

  • Revista
  • Registrar
  • Disney+

Siga-nos

Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2017 National Geographic Partners, LLC. Todos os direitos reservados