Skip to main content
Cognition-émotionsElevage de précision et IA

Decoding vocal indicators of stress in laying hens: A CNN-MFCC deep learning framework

By 10 juin 2025juin 24th, 2025No Comments

Type de document : article scientifique publié dans Smart Agricultural Technology

Auteur : Neethirajan, S

Résumé en français (traduction) : Décodage des indicateurs vocaux de stress chez les poules pondeuses : Un cadre d’apprentissage profond CNN-MFCC
L’intelligence artificielle révolutionne notre capacité à interpréter les états émotionnels des animaux et à y répondre. Cette étude s’appuie sur des réseaux neuronaux convolutionnels avancés (CNN) combinés à des coefficients cepstraux de fréquence Mel (MFCC) pour décoder des schémas de vocalisation complexes chez des poules pondeuses soumises à un stress environnemental aigu. L’exposition contrôlée à des stimuli auditifs réalistes (aboiements de chien) et à des stimuli visuels (ouverture de parapluie) à différents stades de développement a permis une évaluation comparative critique des réponses vocales au stress dans le cadre d’un dispositif expérimental de type commercial. Pendant cinq semaines, des données audio ont été systématiquement saisies dans les groupes de contrôle et de traitement, ce qui a permis de mieux comprendre les comportements vocaux avant et après l’induction du stress. Fait remarquable, les jeunes poules ont montré une activité vocale significativement plus élevée et des changements spectraux plus prononcés lorsqu’elles étaient stressées, ce qui souligne les variations de la réactivité émotionnelle et des mécanismes d’adaptation en fonction de l’âge. Le modèle CNN a atteint une précision de classification remarquable de 94 %, discriminant de manière fiable les types de facteurs de stress, les catégories d’âge et les conditions d’exposition en se basant uniquement sur les signatures acoustiques dérivées du MFCC. L’analyse a en outre révélé que les caractéristiques MFCC d’ordre inférieur réagissent de manière aiguë à la dynamique vocale induite par le stress, tandis que les coefficients d’ordre supérieur restent relativement constants, signifiant des états émotionnels subtils. Ces résultats convaincants font des vocalisations des biomarqueurs puissants et non invasifs de l’état de bien-être des volailles, ce qui permet de mettre en place des solutions de surveillance en temps réel basées sur l’intelligence artificielle. En facilitant la détection précoce et précise des signaux de détresse, cette approche innovante est très prometteuse pour l’amélioration des normes de bien-être et des décisions de gestion dans la production animale. En fin de compte, cette étude présente une méthodologie robuste et évolutive prête à faire progresser l’agriculture numérique de manière générale, en transformant des expressions animales auparavant silencieuses en indicateurs essentiels de leur bien-être et en transformant la gestion des animaux d’élevage en une pratique plus sensible à l’éthique.

Résumé en anglais (original) : Artificial intelligence is revolutionizing our capacity to interpret and respond to animal emotional states. This study leverages advanced Convolutional Neural Networks (CNNs) combined with Mel Frequency Cepstral Coefficients (MFCCs) to decode intricate vocalization patterns in laying hens experiencing acute environmental stress. Controlled exposure to realistic auditory stimuli (dog barking) and visual stimuli (umbrella opening) across different developmental stages enabled a critical comparative evaluation of vocal stress responses within a commercial-like experimental setup. Over five weeks, audio data were systematically captured from control and treatment groups, providing insights into vocal behaviors before and after stress induction. Remarkably, younger hens demonstrated significantly elevated vocal activity and more pronounced spectral shifts when stressed, underscoring age-dependent variations in emotional reactivity and coping mechanisms. The CNN model attained a remarkable 94 % classification accuracy, reliably discriminating stressor types, age categories, and exposure conditions based solely on MFCC-derived acoustic signatures. Analysis further revealed that lower-order MFCC features are acutely responsive to stress-induced vocal dynamics, whereas higher-order coefficients remained relatively constant, signifying subtle emotional states. These compelling findings position vocalizations as powerful, non-invasive biomarkers of welfare status in poultry, supporting real-time, AI-driven monitoring solutions. By facilitating early, precise detection of distress signals, this innovative approach holds substantial promise for enhancing welfare standards and management decisions in livestock production. Ultimately, this study presents a robust, scalable methodology poised to advance digital agriculture broadly, turning previously silent animal expressions into essential indicators of their wellbeing and transforming farm animal management into a more ethically responsive practice.

Couverture de Smart Agricultural Technology
Extrait du site de Smart Agricultural Technology