Révolution audiovisuelle : Des écrans OLED émettant des sons distincts depuis chaque pixel
Une équipe de recherche a développé la première technologie OLED au monde capable d'émettre des sons localisés depuis chaque pixel. Cette innovation, baptisée Pixel-Based Local Sound OLED, transforme les écrans en véritables réseaux de haut-parleurs multicanaux. Les résultats de cette avancée, réalisée par l'Université POSTECH et publiée le 21 mai 2025 dans la revue Advanced Science, ouvrent la voie à une nouvelle ère d'affichages multisensoriels.
Dirigée par le professeur Su Seok Choi et le doctorant Inpyo Hong, l'équipe a démontré avec succès cette technologie sur un panneau OLED de 13 pouces, similaire à ceux utilisés dans les ordinateurs portables et tablettes. Leur approche résout les principaux défis des systèmes audio intégrés actuels en éliminant les interférences sonores entre pixels voisins.
Alors que les technologies d'affichage ont atteint des niveaux exceptionnels en résolution et qualité d'image, l'intégration d'expériences multisensorielles représente la nouvelle frontière. Les recherches montrent que la synchronisation audiovisuelle contribue à près de 90% de l'immersion perçue. Pourtant, la plupart des écrans actuels nécessitent encore des systèmes audio externes encombrants.
La solution POSTECH repose sur des excitateurs piézoélectriques ultra-minces intégrés directement dans la structure de l'écran OLED. Contrairement aux méthodes conventionnelles utilisant des haut-parleurs séparés, cette technologie permet à chaque pixel de fonctionner comme une source sonore indépendante tout en conservant la finesse caractéristique des OLED.
L'innovation réside particulièrement dans l'élimination complète des interférences sonores (crosstalk), un problème majeur des systèmes multicanal traditionnels. Ceci permet une localisation audio précise, où différents sons peuvent être émis simultanément depuis différentes zones de l'écran sans se mélanger.
Les applications potentielles couvrent de nombreux domaines : dans l'automobile, le conducteur pourrait entendre des instructions de navigation tandis que le passager écoute de la musique, le tout depuis le même écran. Pour la réalité virtuelle ou les smartphones, le son spatial pourrait s'adapter dynamiquement aux mouvements de l'utilisateur.
« Les écrans évoluent au-delà de simples dispositifs visuels pour devenir des interfaces complètes engageant à la fois la vue et l'ouïe », explique le professeur Choi. Cette technologie pourrait devenir une caractéristique clé des appareils nouvelle génération, combinant design mince et audio immersif haute fidélité.
Les détails complets de cette recherche sont disponibles dans l'article publié dans Advanced Science (DOI : 10.1002/advs.202414691), marquant une étape significative vers l'intégration parfaite de l'image et du son.