Deze week zijn er nieuwe ontwikkelingen aangekondigd op het vlak van AI die historisch zijn. Deze gaan veel nieuwe mogelijkheden bieden. Sinds een jaar kunnen we kunnen we alles in tekst vragen aan ChatGPT, iets later konden we ook in audio vragen stellen en stemmen namaken. Maar nu is aangekondigd dat ook bewegend beeld in AI gebruikt kan worden. Hierdoor kun je bijvoorbeeld videobellen met ChatGPT-4o en kan het feedback geven op wat het ziet. En het praat op een heel natuurlijke manier. Het kan emoties herkennen op beeld en het heeft geheugen. De impact hiervan gaat heel groot zijn.
‘Alsof we de hele tijd in de tuin hebben staan oefenen met een papieren vliegtuig, en we het ineens voor het eerst echt zien wegvliegen!’. Zo werd de nieuwe ontwikkeling beschreven in de fijne aflevering van podcast POKI.
Bij NRC is de uitvinding van de PC nooit in de krant verschenen. Dit kwam omdat het een proces is geweest en er niet een grote lancering was, zo vertelde Ward Wijndelts deze week in het mediaforum. Deze aankondiging zal dezelfde impact hebben op ons leven als de uitvinding van de PC.
Voor alle duidelijkheid: de huidige snelle versie van ChatGPT 4.0 voor betalende gebruikers wordt gratis toegankelijk voor iedereen en voor de betalende (20 euro per maand) gebruikers wordt de nieuwe versie uitgerold. Deze werkt momenteel nog niet, maar zit er dus aan te komen. Op het YouTube-kanaal van ChatGPT zie je allerlei toepassingen van de techniek die laat zien waarom het ons leven gaat veranderen. Zo zie je hieronder hoe het kan helpen bij het maken van huiswerk als tutor. Op het kanaal zie je ook hoe het live kan vertalen (en je geen tolk meer nodig hebt), hoe het kan herkennen dat iemand iets ongebruikelijks op beeld doet (handig als je bijv bewakingsbeelden wilt bekijken), hoe het live kan argumenteren in bijvoorbeeld een meeting, hoe het live op straat kan beschrijven wat het ziet en je tips geeft. En zo zijn er nog heel veel meer toepassingen te bedenken. Het is echt mind-blown als je het mij vraagt. Een ongekende nieuwe uitvinding.
Google zoals we het kennen, gaat veranderen
OpenAI kondigde deze veranderingen een dag voor een groot event van Google aan. Die timing was niet voor niets, want zo kaapte het de shine van Google die veel soortgelijke dingen wilde aankondigen. Alle aankondigingen draaiden om hun Chat GPT-concurrent Gemini dat ze overal gaan inbouwen. In deze video zie je hoe ook Google je live lopend door een kantoor kan helpen. En het helpt je dus ook je te herinneren waar je sleutels liggen:
De assistent die Google aankondigt heet Astra en kan direct beeld interpreteren en antwoorden. Dit gaat enorm veel tijd besparen. In deze video legt de CEO in 10 minuten uit wat Google allemaal nog meer gaat doen de komende tijd.
Ik had niet gedacht dat ik een jaar na de lancering van ChatGPT ergens nog enthousiaster over zou zijn, maar dat is toch gelukt. Dompel je onder in alle video’s van OpenAI en Google en bedenk wat je hier op termijn allemaal mee kunt doen.
Het Google-verkeer naar sites zal instorten
Als trouw lezer van deze nieuwsbrief heb je al kunnen lezen dat ik verwacht dat het Google verkeer zou instorten als iedereen Gemini zou gaan gebruiken. Via deze nieuwe manier van zoeken ga je niet meer naar een site toe om het antwoord op je vraag te vinden, maar krijg je het antwoord direct te zien via Google. Met een verwijzing naar een site voor meer informatie. Maar dat doorklikken voor meer informatie zullen veel minder mensen gaan doen is mijn verwachting. Doordat Gemini de nieuwe standaard wordt voor Google, zal het dit jaar al veranderen wanneer veel mensen de nieuwe manier van ‘Googelen’ gaan gebruiken. Dit is hoe het er uit gaat zien:
Dit gaat ander type artikelen vragen van nieuwssites of samenwerkingen met Google. Artikelen als ‘Op deze dag speelt Oranje op het EK’ zullen op termijn nog steeds nuttig zijn voor de lezers die uit zichzelf naar een site komen voor die informatie, maar toevallige passanten via Google zullen minder snel komen lezen.
Ik verwacht ook dat lezers nu gewend gaan raken aan samenvattingen van lange artikelen, dat artikelen herschreven worden in andere taal of op een bepaald leesniveau en dat gesproken artikelen op een hoog niveau overal van gemaakt kunnen worden. Wat de afgelopen jaren echt experimenten van individuele media zijn geweest, is plots collectief beschikbaar voor het grote publiek. Zo rolde Eleven Labs deze week ‘Audio Native’ uit. Hiermee kan iedereen direct een player plaatsen bij artikelen zodat alle artikelen direct geluisterd kunnen worden.
Natuurlijk zal ik je via deze nieuwsbrief volledig op de hoogte houden en ook experts aan het woord laten of het inderdaad de impact gaat hebben die ik verwacht. Schrijf je hier in of stuur het door naar anderen.