Blog Guido van Nispen: Het AI konijn en de AI kreeft

De belofte van nieuwe interfaces komt zelden in één keer tot wasdom. Vaak verschijnen ze eerst als curiositeit: tastbare ideeën die vooral laten zien wat er zou kúnnen ontstaan. De Rabbit R1 past inmiddels duidelijk in die categorie. Zeker nu het apparaat dankzij integraties met systemen als OpenClaw een stap zet richting daadwerkelijk handelende AI.

Wie recente gebruikerservaringen naast elkaar legt, ziet een opvallend consistent patroon. De Rabbit R1 wordt zelden ingezet als primair hulpmiddel, maar vooral als demonstratie van een nieuwe manier van interactie. Gebruikers experimenteren met de zogeheten “Magic Camera”, genereren beelden, passen stemmen aan en verkennen de speelse interface. Het apparaat wordt getoond, gedeeld en besproken… maar minder gebruikt.

Dat is geen triviaal onderscheid. Waar smartphones direct een functionele noodzaak invulden, lijkt de Rabbit R1 voorlopig vooral een ervaring te bieden. Het is, zoals meerdere gebruikers het formuleren, “leuker dan nuttig” en daar ben ik het als eigenaar van zo’n oranje konijn mee eens. Daarmee positioneert het apparaat zich eerder als een tastbare demo van AI-interactie dan als een productiviteitsinstrument.

De integratie met OpenClaw markeert echter een interessanter kantelpunt. Waar de Rabbit R1 eerder vooral reageerde door vragen te beantwoorden en beelden te genereren, ontstaat nu de mogelijkheid om daadwerkelijk acties uit te voeren. Dit sluit aan bij het onderliggende concept van de Large Action Model (LAM): AI die niet alleen begrijpt, maar handelt. In theorie betekent dit dat een gebruiker niet langer een taak uitvoert via apps, maar een intentie uitspreekt waarna het systeem de stappen zelfstandig afhandelt. Een vlucht zoeken, een reservering maken of informatie combineren zou daarmee één doorlopende interactie worden. In de praktijk blijft dit voorlopig beperkt tot gecontroleerde experimenten. Enthousiastelingen testen ketens van acties en eenvoudige automatiseringen, maar de robuustheid ontbreekt nog. De stap van demonstratie naar betrouwbaarheid is nog niet gezet.

Wat opvalt, is dat gebruikers de Rabbit R1 wel degelijk proberen in te passen in hun dagelijkse routines. Voor snelle vragen, vertalingen of het herkennen van objecten biedt het apparaat een alternatieve interface. Maar zodra het ertoe doet voor snelheid, nauwkeurigheid, complexiteit, grijpen gebruikers terug naar hun smartphone. Dit wijst op een fundamenteel probleem. De Rabbit R1 introduceert geen nieuwe categorie problemen die beter wordt opgelost dan bestaande apparaten. Het voegt een laag toe, maar vervangt niets wezenlijks. Daarmee blijft het een secundair apparaat, afhankelijk van de ecosystemen die het juist probeert te omzeilen.

Tegelijkertijd ontstaat er een kleine, maar betrokken gemeenschap van gebruikers die juist in die onvolwassenheid een kans zien. Ontwikkelaars en ‘tinkerers’experimenteren met interfaces, passen gedrag aan en verkennen wat “agentic AI” zou kunnen betekenen in combinatie met hardware. In die zin vertoont de Rabbit R1 trekken van vroege platforms als Arduino of Raspberry Pi. Die waren ook niet bedoeld voor de massa, maar voor een voorhoede die nieuwe toepassingen verkent. Het verschil is dat de belofte hier niet hardwarematig is, maar interactioneel: hoe mensen met systemen communiceren.

Misschien wel het meest veelzeggende gebruikspatroon is dat het apparaat vaak ongebruikt blijft. Na de eerste nieuwsgierigheid volgt snelle terugval. Niet omdat het idee wordt afgewezen, maar omdat de uitvoering nog geen overtuigend alternatief biedt. Dat leidt tot een bredere observatie. Ik merk dat zelf ook. Als er weer eens een nieuwe update of aankondiging komt, laad ik het oranje konijntje weer op. 

De vraag is niet of AI-gedreven interfaces zoals de Rabbit R1 relevant zullen worden, maar wanneer en in welke vorm. De geschiedenis van technologie laat zien dat timing vaak bepalender is dan visie. De Rabbit R1, nu uitgebreid met OpenClaw, lijkt daarmee vooral een voorloper. Geen mislukking, maar een signaal: de interface van de toekomst waarin intentie centraal staat en systemen handelen. Dat is met het apparaat zichtbaar geworden, maar nog niet rijp. En precies daarin schuilt zijn betekenis. In het erste geval is het een bijzonder mooie Tamagtochi en daar hebben ook veel mensen plezier van gehad. 

Voor OpenAI dat het ontwerpbureau van Jony Ive overnam voor 6 miljard Dollar om AI hardware te maken, ligt de lat daardoor hoger dan ooit: alleen als technologie, vertrouwen en gedrag samenvallen, ontstaat iets dat de telefoon werkelijk overbodig maakt. Voorlopig zijn hun plannen naar achter verschoven. We zullen ons nog even moeten behelpen met onze smartphone. 

Geef als eerste een reactie

Geef een reactie

Uw e-mailadres wordt niet gepubliceerd.


*