Hoe gaat het komend decennium de #AR bril op ons neus veranderen, en vooral: verandert datgene wat we voor ons neus krijgen? https://t.co/Ox3wseKEVj pic.twitter.com/xHyq9c8LBf
— Futurotheek (@futurotheek) September 30, 2020
Er wordt in Silicon Valley hard gewerkt aan het ontwikkelen van een augmented reality bril die geschikt is om een dagelijks gedragen te worden, eentje die in het dagelijks leven geaccepteerd gaat worden. Dat zal niet van de een op de andere dag gebeuren, netzomin als dat bij de smartphone gebeurde. Al was dat ene moment dat Apple de iPhone lanceerde wel een keerpunt. De vroegtijdige smartphones van Microsoft ten spijt, daar konden alleen pioniers en een kleine groep ondernemers mee overweg. Maar wie nu geen smartphone heeft, hoort er niet meer bij. Die mist dingen. En dat gaat met de AR bril ook aan de hand zijn. Wat als iedereen rondkijkt in een augmented wereld, daar van alles ziet opduiken en alles anders ziet? Er zullen stug mensen roepen dat alleen het ‘echte’ telt, maar of iets fysieke materie is of niet is al lang niet meer bepalend bij de vraag of iets echt is. Dan gaat het over de vraag of iets impact heeft, of iets zichtbaar is voor de massa. Wat dat betreft speelt er in de AR wereld nog wel een extra dilemma: in hoeveel parallele realiteiten gaan we ons begeven? Straks zijn we samen op één plek, en toch zullen we ieder een totaal ander besef van de ruimte kunnen hebben. Welk bedrijf of welke overheid neemt het op zich om in de nieuwe semi-digitale wereld te zorgen voor een bepaalde basis?
En welk commercieel bedrijf zal als winnaar uit de strijd om de universele AR cloud komen? Hoe lang zullen we daarin betrokken worden in een “Microsoft IE versus Netscape” achtige strijd? Met enige incompatibiliteit tussen AR brillen onderling kunnen we leven als gaat om optionele verschijningen, ter decoratie. Wie verzorgt je lokale graffiti? Welke reclame zie je? En in welke games ben jij wel actief maar de wereld om je heen niet? Maar als we binnen wandelen in een een toekomstige Albert Heijn of Amazon zelfsbedieningszaak wordt van ons wel verlangd dat onze bril succesvol verbinding maakt met het lokale systeem. Op een schermpje instructies aflezen tijdens het scannen van je producten en daarbij knoppen intoetsen is zelfs nu al achterhaald. Een tussenfase is de winkel vol hangen met talloze camera’s, maar op grotere schaal is dat niet een haalbare of wenselijke situatie. Dan is het efficienter om gebruik te maken van de camera en het scherm dat iedereen zowiezo met zich meedraagt. Onze AR-brillen. Bovendien, hoeveel garanties krijgen we dat de software van al die camera’s om ons heen in orde is, en de verwerking van de data zorgvuldig verloopt? In de toekomst zal de camera die wij zelf met ons meedragen een grotere rol gaan spelen in alles wat we doen. En de “heads up display” die voor ons neus verschijnt zal steeds vaker onze interactie met de wereld om ons heen begeleiden. We willen er met onze neus op zitten zodra we met externe API’s gekoppeld worden, waarvoor onze camera aan de slag gaat en data deelt met onze omgeving. We kunnen aangeven de AH te vertrouwen en de AH plug-in wel te willen draaien gedurende ons bezoek aan de winkel.
Apparaten die we kopen zullen verkocht worden met plug-ins voor onze bril. Een koffieapparaat met een mooie strakke Bang & Olufsen interface waarin niet allemaal LED lampjes verwerkt zitten. We krijgen dynamische AR interfaces onder ogen. Die verschijnen als extra laag dankzij de AR van onze bril, met aanvullende instructies indien nodig. Handig voor wie vergeetachtig is. En misschien dat we uberhaupt in de toekomst minder hebben om te onthouden, er zal zelfs minder noodzaak zijn om van alles te leren dankzij interactieve gebuikerspanelen die zich aanpassen aan onze gesteldheid. Of zich aanpassen zonder ons daarin mee te nemen. Want onze AR bril zal steeds vaker autonoom kunnen handelen namens ons, taken van ons kunnen overnemen, omdat het apparaat ons op de nauwlettend volgt en observeert en ons steeds beter leert kennen.
Met een AR bril die rechtstreeks in contact staat met de apparaten om ons heen komt die fictieve zelf nadenkende koelkast wel een klein stapje dichterbij. Waar veel IoT (Internet of Things) concepten nog geen inzicht hadden in de context, dus zich moesten baseren op historische sensor-data analyse en de live data-feed van onze quantified self sensoren zal de AR-bril daar nog een live camera-feed aan toevoegen, met alle informatie die daaruit te extraheren is. Dan weet het alwetende systeem op de achtergrond nog beter waar we zijn, hoe we ons voelen, waar we naar kijken, wat of wie er voor ons neus staat. Wat we dan nodig hebben, en welk apparaat daarvoor kan zorgen.
Maar naast onze omgang met apparaten en de digitale omgeving om ons heen, zal ook de verstandhouding met mensen tegenover ons veranderen. Wat ziet iemand die in z’n eigen AR wereld tegenover je zit? Maakt de persoon z’n beslissingen eigenhandig, of volgt iemand de aanbevelingen die verschijnen in zijn of haar HUD? En van welke software en scripts maakt iemand daarvoor in gebruik? Geven we elkaar daar in de toekomst inzicht in, zodra we elkaar treffen? En zzoals sporters te maken hebben met regelgeving over wat toegestaan is qua technische hulpmiddelen, hoe ver accepteren we het van elkaar als software zich gaan mengen in onze menselijke interacties? Gaan we het ooit weer herwaarderen als iemand helemaal zelf denkt? Is het netjes om je bril af te zetten tijdens een meeting of diner, zelfs al zien de brillen er niet zo creepy uit als de opzichtige Google glass van weleer, en zijn we zelfs gewend aan het feit dat iedereen iets draagt? Op mensen met digitale contactlenzen na dan. Of gaan die ook uit tijdens een gesprek, fysiek of softwarematig?
Moeten we ons zorgen maken dat iemand tegenover ons meer ziet dan wat die persoon met het blote oog zou waarnemen? In welke situaties en met welk doel zijn bepaalde functies van de bril acceptabel? Iemand met autisme die dankzij de AR bril toch vat krijgt op de onuitgesproken communicatie, dankzij de feilloze detectie van emoties in het gezicht van de ander? Kan zoiets een brainstorm versnellen, als er een tag-cloud aan ideeen en iconen rondom ons hoofd zweeft, en onze bril kan peilen hoe de andere daarop reageert? Accepteren we zoiets tijdens meetings waarin we over iets moeten onderhandelen? In veel discussies over AR toepassingen klinkt toch vaak een zorgelijke toon. Om een stap verder te komen in die discussie en omdat de toekomst een multi-user AR-bril universum gaat worden, is het goed om te kijken naar toepassingen die met wederzijdse overeenstemming gehanteerd worden. Misschien dat we zelfs onderhandelingen in kunnen stappen waarbij we onze brillen onderling de uitkomst laten bepalen op basis van vooraf ingestelde criteria, gewenste uitkomsten en randvoorwaarden. Een script dat namens jou de zaken afhandelt. In hoeverre zijn wij daar zelf nog voor nodig, fysiek, met onze bril op?
Krijgen wij de rol van beheerder, en hebben we het overzicht over meerdere avatars die namens ons een eigen bewegingsvrijheid hebben, tot een bepaalde grenswaarde, die bepaalt wanneer wij weer zelf live ingrijpen de regie terugpakken? En als een handeling uitsluitend binnen het digitale gedeelte van de wereld heeft plaatsgevonden, kunnen we dan met onderlinge afstemming een roll-back of undo doen?
Zodra het deze richting op gaat, doemt het beeld op van een passieve mens die zich in slapende toestand in virtuele werelden bevindt. Maar dat is een mooi punt om deze AR toekomstverkenning mee af te kappen. Dat gaat het over zorgen waar experts uit het VR domein zich over mogen buiten. In het AR kamp geldt enkel de taak om het niet zo ver te laten komen, en het maximale te halen uit de mixvorm van onze levendige fysieke wereld waarvan met een extra virtuele laag een unieke maakbare wereld te maken valt.