In het kort:
De nieuwe technologie belooft een doorbraak voor mensen met een visuele beperking en taalbarrières door alles lokaal op het apparaat te verwerken.
- De chipset ondersteunt meer dan 150 talen en elimineert de noodzaak voor cloudverbindingen, wat privacy en snelheid ten goede komt.
- Een demonstratievideo toont hoe AI een scène uit Ratatouille in verschillende talen beschrijft, met zowel gesproken als geschreven vertalingen.
- Het spraakmodel wordt al gebruikt door grote organisaties zoals NASCAR, Comcast en Eurovision.
Achter de schermen:
De technologie bevindt zich nog in de testfase, dus het duurt nog even voordat we deze chips in tv's en andere apparaten zien verschijnen. De bedrijven beloven ultra-lage latentie en drastisch verminderd bandbreedtegebruik door alle verwerking lokaal te houden.
De andere kant:
De getoonde demo is strak geregisseerd met veel montage, waardoor onduidelijk blijft hoe goed de technologie presteert in echte situaties. Ook is er geen informatie beschikbaar over de nauwkeurigheid van de vertalingen en audiobeschrijvingen in praktijkscenario's.


