Magazine Lobe - volume 17, numéro 2, 2022 (FR)

Page 21

Des appareils auditifs guidés par

l’intelligence artificielle

C’est dans l’air du temps, l’intelligence artificielle (IA) est utilisée dans d’innombrables domaines afin d’améliorer le traitement de l’information, et le domaine de l’audition peut heureusement en bénéficier. Les ingénieurs du domaine des appareils auditifs se sont tournés vers cette technologie de pointe afin d’amener à un haut niveau l’expérience sonore des porteurs d’appareils auditifs. Pour relever ce défi, nos ingénieurs ont développé ce qu’on appelle un réseau neuronal profond, ou RNP, afin de mieux gérer le traitement du signal sonore. Cette technologie est utilisée pour effectuer de nombreuses tâches quotidiennes comme de la traduction. Elle est même utile dans le cadre de diagnostics médicaux. L’Université de Californie à Los Angeles (UCLA) a d’ailleurs créé un RNP pour détecter les cellules cancéreuses1 ! Aujourd’hui, nous l’utilisons pour analyser et équilibrer les sons traités dans les appareils auditifs. Mais qu’est-ce qu’un RNP exactement et comment fonctionne-t-il ?

L’idée générale d’un RNP est qu’il apprend par des expériences répétées, à partir d’une collection d’échantillons. Dans un exemple de reconnaissance d’image, on lui présente X millions de photos de chiens, dans des contextes différents. Au bout d’un moment, il acquiert suffisamment d’expérience pour être capable de reconnaître un chien dans n’importe quelles situations. Ainsi, un RNP imite la manière dont le cerveau humain apprend, par la pratique et les erreurs. Les appareils auditifs classiques reposent sur des modèles théoriques et des règles strictement définies pour améliorer les sons de la parole et réduire le bruit de fond. Mais cela peut entraîner un manque de flexibilité en cas d’environnements sonores changeants et complexes, du fait que le RNP ne capte pas toutes les nuances et par conséquent effectue des erreurs d’analyse. Après avoir entraîné notre RNP avec 12 millions de scènes sonores (repas de famille, restaurants, rues animées, transport public, etc.), nous avons développé un circuit pour les appareils auditifs d’un nouveau genre qui peut imiter la façon dont le cerveau fonctionne pour équilibrer et hiérarchiser les sons. Grâce à cette nouvelle approche révolutionnaire, nous sommes en mesure de donner accès à une scène sonore complète, précise et équilibrée avec plus de soutien pour suivre des conversations en situation difficile. Une étude indépendante a démontré que l’utilisateur bénéficie de 45 % plus d’émergence des sons de premier plan et donc plus de clarté de la scène sonore grâce à cette technologie2. Celle-ci soutient le système auditif en apportant au cerveau tout ce dont il a besoin pour entendre et comprendre efficacement – ce qui contribue en plus à sa santé en générale. Pour en connaître davantage sur les appareils auditifs, consultez votre audioprothésiste.

Charles-Edouard Basile Directeur du développement des affaires et formateur aux programmes adulte et pédiatrique

Josée Guillemette Spécialiste bilingue du soutien en audiologie

Références : 1. Jalali, B., Lifan Chen, C., et Mahjoubfar, A, « Cancer Diagnostics with Deep Learning and Photonic Time Stretch », https://www.mathworks.com/ company/newsletters/articles/cancer-diagnostics-with-deep-learningand-photonic-time-stretch.html 2. Santurette, S., Hoi Ning Ng, E., Juul Jensen, J., Man Kai Loong, B., « Oticon More™ clinical evidence », https://wdh02.azureedge.net/-/media/ oticon-us/main/download-center---myoticon---product-literature/ whitepapers/15500-0635---oticon-more-clinical-evidence-whitepaper. pdf?rev=59D5&la=en

LOBE.CA | © MAGAZINE LOBE 2022

21


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.