1679055147 Apple geeft Siri binnenkort toch een kleine ChatGPT behandeling

Apple laat op je iPhone je stem weer horen tijdens Global Accessibility Day

Aankomende donderdag is het Global Accessibility Day, en daarmee staan we stil bij alle mogelijkheden die techbedrijven zoals Apple met de iPhone en iPad, maar ook concurrenten, regeringen en de mensheid an sich het leven van mensen met een handicap makkelijker kunnen maken. Dus ook het mogelijk maken van spraak in je eigen stem en AI in Apple’s hardware wil daarin bijdragen met nieuwe updates. OMT-redacteur Dennis Mons is er stil van.

Om alvast een tipje van de sluier te lichten: OMT sprak met Eva Eikhout over toegankelijkheid van technologie zoals op de iPhone of iPad. Zij legde haarfijn uit hoe deze features het leven van veel mensen met een handicap kunnen verbeteren. Dat interview met haar nog volgt zeker. Maar Apple gaat bijvoorbeeld binnenkort een update uitbrengen waardoor men weer kan spreken. Intrigerend.

Apple’s iPhone wordt misschien je beste maatje op Accessibility Day

Onderschat bijvoorbeeld niet het feit dat bijvoorbeeld mensen met ALS (Amyotrofische Laterale Sclerose) voor tachtig procent ook moeite hebben om te spreken. Niet kunnen communiceren is dan ook onvoorstelbaar tergend, een ‘hell hole’. Maar een iPhone of iPad kunnen daarbij helpen.

Apple kondigt dan ook nieuwe toegankelijkheidsfuncties aan die mensen met bijvoorbeeld die ziekte kunnen spreken met hun geliefden via hun iPhone, iPad of Mac in hun eigen stem. Het combineert ook LiDAR-tech zodat men makkelijk ook het Vergootglas kan gebruiken om makkelijker boodschappen te kunnen delen. Ook leest het getypte berichten voor in de stem van de gebruiker.

De technologie van Apple is ontwikkeld in samenwerking met Team Gleason, een non-profit stichting voor bewustwording van ALS. Personal Voice is zonder enige twijfel het meest opwindend omdat de iPhone in plaats van een van zijn vooraf gemaakte Siri-stemmen (Australisch, Engels) een gesynthetiseerde versie van je eigen stem gebruikt om te zeggen wat je ook typt.

Weet het de gis van bijvoorbeeld de scherpheid van sarcasme? Nah, maar op een of andere manier denk ik dat het een kwestie van tijd is als de AI van Apple leert hoe je reageert op dingen.

⁉

Wat is ALS?

ALS is een progressieve neurologische aandoening die de motorische zenuwcellen aantast. Het leidt tot spierzwakte, verlamming en uiteindelijk ademhalingsproblemen. Patiënten verliezen geleidelijk hun vermogen om te spreken, te bewegen en te ademen. Hoewel er momenteel geen genezing is, zijn er behandelingen en ondersteuning om de symptomen te verlichten en de kwaliteit van leven te verbeteren.

Als ik het kan bij vrienden van me die nauwelijks kunnen spreken (ik weet wanneer ze *ssholes zijn), dan moet AI op de iPhone dit ook snel kunnen. Ik kan persoonlijk niet wachten om ze weer te horen.

Een hond een trucje leren

Net als ik (ik iets trager) weet AI uit te vogelen op een iPhone wat men wilt zeggen. Om het systeem van Apple te trainen positioneer je jezelf ongeveer 15 tot 30 centimeter van de microfoon van de iPhone en herhaal je vervolgens een reeks willekeurig geselecteerde zinnen.

Genoeg dus om de machine learning (ML) in de iPhone te trainen en de telefoon in staat te stellen om te herhalen in jouw synthetisch gegenereerde stem van wat je ook typt. Ik heb meteen zin om een Furby te hacken en op de slaapkamer te zetten als mijn vriendin denkt te gaan slapen.

Hoewel veel bedrijven over elkaar heen kukelen als het gaat om AI heb ik persoonlijk nog steeds het gevoel dat Apple dit slimmer aanpakt dan de rest. Alle pientere zoekmachines ten spijt, het is belangrijker om je letterlijk gehoord te voelen op je iPhone, iPad maar ook Android, zeker op Accessibility Day.

Ubergeek Loves Coolblue

Zou je na het lezen van deze artikel een product willen aanschaffen?
Bezoek dan Coolblue en ontdek hun uitgebreide assortiment.