Domaine / Métier : Recherche/Chercheuse / Chercheur
Nature de l’emploi : Emploi ouvert aux titulaires et aux contractuels
Description du poste :
Ce poste se déroulera dans le cadre de l’initiative One Forest Vision, au sein de l’Unité Mixte de Recherche «Eco-anthropologie » (Muséum National d’Histoire Naturelle/CNRS/Université de Paris) sur le site du Musée de l’Homme (17 Place du Trocadéro, 75116), et ponctuellement sur le site du Jardin des Plantes (57 rue Cuvier, 75005)
L’initiative One Forest Vision (OFVi) initiée en mars 2023 à Libreville a parmi ses objectifs le développement de méthodes innovantes et faciles d’usage de suivi de la biodiversité animale dans le bassin du Congo en combinant des données (images et sons) issues d’outils non-invasifs (camera traps, capteurs sonores, drones) et analyses à l’aide d’algorithmes d’intelligence artificielle. Dans ce contexte, le Muséum participe au développement d’algorithmes pour l’étude des espèces animales dans les forêts du Bassin du Congo, avec notamment un intérêt pour des espèces menacées et emblématiques des forêts tropicales (chimpanzés, éléphants de forêt). Développer ces outils open-source et les mettre à disposition des acteurs terrain (parcs naturels, chercheurs, ONGs, gouvernements, etc) est crucial pour permettre un suivi standardisé de la faune dans le temps et l’espace. Le poste proposé est une opportunité de contribuer à ce projet d’envergure, au sein du Muséum, acteur majeur de l’OFVi, au sein d’un laboratoire interdisciplinaire stimulant.
Des données acoustiques ont été acquises sur un des sites pilotes de l’OFVi (dit « super-site) à Sebitoli, dans le parc national de Kibale, en Ouganda, habitat de chimpanzés, éléphants et colobes notamment. Ces espèces présentent des vocalisations, des systèmes sociaux et des usages de l’habitat très différents. Au delà de l’aspect méthodologique, l’analyse des sons en fonction de la disposition des capteurs pourra permettre de mieux comprendre l’usage de l’habitat
Formation :
Diplômé.e d’une école d’ingénieur avec expérience en deep learning appliquées à la détection et classification d’objets visuels et/ou sonores, docteur.e en intelligence artificielle/mathématiques/physique/acoustique
Compétences requises :
Compétences solides en deep learning appliquées à la détection et classification d’objets dans des scènes visuelles(computer vision) et/ou sonores (speech, audio ou music processing)
Maîtrise du langage de programmation Python et des librairies Pytorch/Tensorflow requise
Illustrer ses compétences dans des projets nécessitant une part importante de développement informatique, au cours d’un doctorat ou en tant qu’ingénieur
Appétence pour l’étude et la conservation de la biodiversité animale et le domaine de l’acoustique appréciée
Des connaissances en bases de données et en développement d’interfaces seront un plus
Etre intéressé.e par la recherche scientifique, le travail en équipe, disposé.e à apprendre de nouvelles techniques et savoir analyser et interpréter les résultats
Initier ou contribuer à la rédaction d’articles scientifiques. Il/elle évoluera dans un environnement multidisciplinaire et devra être capable d’interagir avec les différents acteurs.
Géolocalisation du poste : 75001 Paris, France