4 minutes de lecture
Comment la musique a conduit Daniel DeLeon à étudier l'océan avec l'aide du machine learning
Daniel ne savait même pas ce qu'était l'ingénierie lorsqu'il est entré à l'université. Aujourd'hui, il fait avancer la science en utilisant le machine learning (apprentissage automatique) pour observer des cétacés menacés d'extinction.
Les parents de Daniel DeLeon, Betty et Narciso, se sont rencontrés lors d'un voyage religieux à San Blas, au Mexique. Elle ne parlait pas un mot d'espagnol et lui pas un mot d'anglais. Ils ont donc dû trouver un autre mode de communication : la musique.
On ne s'étonne guère que Daniel, aujourd'hui étudiant de 26 ans à l'université d'État polytechnique de Californie, ait développé une oreille musicale en grandissant. Ses parents faisaient partie d'un trio traditionnel mexicain appelé Trio Guadalupeño. Toute l'enfance de Daniel s'est ainsi construite au son de leurs répétitions hebdomadaires et de leurs représentations à des festivités locales.
En cours de physique, j'ai appris comment les ondes sonores se propagent dans notre oreille. J'ai trouvé cela incroyable. Ces vagues créent des émotions qui nous rendent heureux ou optimistes.
Daniel DeLeon
C'est à l'occasion d'un cours de physique à l'université que l'amour de Daniel pour la musique s'est transformé en fascination pour la science du son. Grâce à son bagage musical et à sa compréhension nouvelle de l'acoustique, il a pu décrocher un stage très recherché au MBARI (Monterey Bay Aquarium Research Institute), pour aider les chercheurs Danelle Cline et John Ryan à étudier les chants des baleines dans l'océan.
Les cétacés utilisent des sons pour se comprendre, un peu comme mes parents lorsqu'ils se sont rencontrés. Cela m'a fait réfléchir à leur musique et à son importance.
Daniel DeLeon
En étudiant les chants de la baleine bleue et du rorqual, deux espèces menacées, ainsi que les changements de leurs habitudes migratoires, les chercheurs peuvent comprendre les conséquences à grande échelle des actions de l'homme sur la vie marine. Voyant qu'ils avaient affaire à un passionné de musique, John et Danelle se sont dit que Daniel ne serait pas contre l'idée de passer tout un été à écouter les sons de l'océan enregistrés par l'hydrophone de l'institut, un micro sous-marin installé à 900 mètres sous la surface. Toutefois, la tâche qui attendait Daniel était un peu plus complexe qu'il n'y paraissait.
L'océan recouvre 70 % de la surface de la Terre et atteint des profondeurs insondables. Or, à 23 mètres sous l'eau, 99 % de la lumière a déjà disparu. Le son, en revanche, peut parcourir des milliers de kilomètres. C'est la raison pour laquelle les mammifères marins utilisent le son pour la plupart de leurs activités. On en apprend beaucoup sur leur vie rien qu'en les écoutant.
John Ryan, océanographe biologiste
En enregistrant du son 24 heures sur 24, l'hydrophone place les scientifiques face à un problème : l'excès de données. Il faudrait plusieurs vies pour analyser en détail la totalité des enregistrements. C'est pourquoi Daniel avait pour mission d'utiliser TensorFlow, l'outil de machine learning en Open Source de Google, pour effectuer le fastidieux travail d'analyse des fichiers audio et d'identification des chants des cétacés. Ce travail a ainsi pu être réalisé en quelques jours seulement, au lieu de plusieurs années.
Lorsque Daniel a commencé son stage, il n'avait jamais utilisé TensorFlow, mais il était bon en mathématiques. Or, le machine learning n'est rien de plus qu'une série d'algorithmes qui analysent les données et apprennent à reconnaître les récurrences.
Les baleines bleues et les rorquals détiennent le record de décibels de tous les animaux de la planète. Leurs chants à basse fréquence peuvent voyager sur de longues distances dans l'océan, ce qui en fait d'excellents sujets d'étude. L'hydrophone de l'institut MBARI peut écouter des baleines éloignées de 500 kilomètres.
Les ondes sonores enregistrées par l'hydrophone doivent être converties en données visuelles sous la forme d'un spectrogramme, sorte de carte du son dans le temps. Daniel introduit ces spectrogrammes dans le modèle TensorFlow pour lui apprendre à quoi ressemblent les chants de baleine bleue et de rorqual commun. Comme un chiot que l'on dresse à faire des tours, les modèles de machine learning apprennent par la répétition. Plus Daniel lui fournit d'exemples, plus le modèle devient précis. Au bout du compte, Daniel a formé le modèle TensorFlow avec plus de 18 000 exemples de chants de cétacés isolés.
Le machine learning consiste simplement à faire en sorte que l'ordinateur soit capable de détecter des récurrences.
Daniel DeLeon
Petit à petit, Daniel a appris à TensorFlow à identifier les chants des cétacés avec une précision de 98,05 %. Ce modèle est capable de faire la différence entre une baleine bleue et un rorqual, ainsi que d'aider à confirmer, pour chaque chant, la période de la journée où il est émis, son volume sonore et sa durée.
Baleine bleue
Rorqual commun
Nous vivons un moment crucial pour les sciences de l'océan. C'est aussi une période très intéressante pour le machine learning, car nous commençons enfin à résoudre des problèmes qui étaient insolubles il y a encore cinq ans.
Danelle Cline, Ingénieure logiciel principale
Les recherches de Daniel sur le machine learning ont aidé John et Danelle à établir les bases de la détection et de la classification automatiques des chants des baleines. Désormais, ils peuvent consacrer plus de temps à étudier les questions importantes : par exemple, comment les habitudes migratoires millénaires de ces géants des mers changent et ce que cela révèle des répercussions à grande échelle des actions de l'homme sur la vie marine, telles que la pollution sonore ou le changement climatique.
Jamais je n'ai pensé avoir une carrière de scientifique. Je ne croyais pas avoir les qualités nécessaires. C'est ma curiosité pour le monde, pour l'univers en général, qui m'a fait tenter le coup.
Daniel DeLeon