Stemklonen zijn niet alleen een technische curiositeit — ze blijken in lawaaiige omstandigheden ook beter te verstaan dan de menselijke stem waarop ze zijn gebaseerd. Dat is de opmerkelijke conclusie van een studie van Patti Adank en Han Wang (University College London en Universiteit van Roehampton), gepubliceerd in het Journal of the Acoustical Society of America.

De onderzoekers lieten proefpersonen zowel menselijke stemmen als AI-gegenereerde klonen van diezelfde stemmen beoordelen op verstaanbaarheid. Het effect was consistent: stemklonen scoorden tot 20% beter — ook bij ouderen met gehoorproblemen, bij Amerikaanse luisteraars die Britse stemmen hoorden, en bij simulaties van cochleaire implantaten. Adank noemde de uitkomst zelf “behoorlijk schokkend”.

Een verklaring is er nog niet, maar de implicaties zijn groot. Als AI-stemmen structureel beter verstaanbaar zijn, opent dat perspectieven voor toegankelijkheid: denk aan omroepberichten, navigatiesystemen, of communicatie in ziekenhuizen en openbare ruimtes. Het roept tegelijk vragen op over wat er akoestisch precies gebeurt bij het klonen — en of die eigenschappen gericht te sturen zijn.

Lees meer op AIP Publishing.