Kids versie van de #Futurotheek

Wanneer krijgen kinderen hun eerste AR bril? Wordt dat het oude exemplaar van hun vader? Of komen er kinder-monturen? Maar vooral is de vraag: wat gaan kids met de AR bril doen? En in hoeverre gaat #AI dankzij beeldherkenning een rol spelen in hun leven? In de kinder-versie van de #Futurotheek hebben we dergelijke keuzes en dilemma’s vertaald naar concrete situaties in de belevingswereld van kinderen.

Zonder ingewikkelde hardware op hun hoofd krijgen ze tóch een kijkje in de toekomst met zichzelf in de hoofdrol dankzij een interatief facefilter. Staand voor het scherm dragen ze een AR bril, kijken door een ‘heads up display’ en maken keuzes door ja/nee te knikken. De installatie staat opgesteld in het #Cinekid mini-medialab in de Krakeling dat deze herfstvakantie op vertoon van een filmticket te bezoeken is.

Kids versie van de #Futurotheek

Wanneer krijgen kinderen hun eerste AR bril? Wordt dat het oude exemplaar van hun vader? Of komen er kinder-monturen? Maar vooral is de vraag: wat gaan kids met de AR bril doen? En in hoeverre gaat #AI dankzij beeldherkenning een rol spelen in hun leven? In de kinder-versie van de #Futurotheek hebben we dergelijke keuzes en dilemma’s vertaald naar concrete situaties in de belevingswereld van kinderen.

Zonder ingewikkelde hardware op hun hoofd krijgen ze tóch een kijkje in de toekomst met zichzelf in de hoofdrol dankzij een interatief facefilter. Staand voor het scherm dragen ze een AR bril, kijken door een ‘heads up display’ en maken keuzes door ja/nee te knikken. De installatie stond opgesteld in het #Cinekid mini-medialab en zal binnenkort in online-vorm weer opnieuw te bekijken zijn tijdens het Night of the Nerds evenement in november.

Met AR brillen zoals Silicon Valley die voor ogen heeft zal #AI dankzij geautomatiseerde camera-analyse de gehele dag een rol in ons leven gaat spelen. Hoe transparant en instelbaar gaat die functie zijn? Zetten kids hun “semi-digitale zelf” op een laag pitje tijdens schoolwerk?

In de kinderversie van de #Futurotheek vertalen we geavanceerde technische features van de toekomstige AR bril naar concrete alledaagse use-cases in hun eigen belevingswereld

AR brillen gaan ons leven beter en efficienter maken, horen we. Maar heeft die perfectie ook een keerzijde? Welke bemoeizucht accepteren we? Wat blijft er over van de toegevoegde waarde van de bril als we ‘m afzetten zodra we (voor ons eigen bestwil) ergens in gehinderd worden?

Kids overzien het grotere Big Tech plaatje nog niet. Stapsgewijs zullen ze hun AR bril vaker gaan gebruiken, telkens wanneer iets leuk of nuttig is. Daarom is het goed om alvast eens de komende 10 jaar te doorlopen, en te ontdekken waar die kleine stapjes toe leiden #Futurotheek

 

De toekomst van AR brillen

Vaak wordt er in gesprekken over de toekomst van AR brillen vooral gepraat over de hardware. De bril moeten comfortabel zitten. En uiteraard moet de software zinvol en nuttig zijn en perfect werken. Maar bij dat laatste punt wordt niet genoeg stil gestaan. Wat is “perfect werken voor de een en voor de ander? De werking van de bril afstemmen op je eigen wensen en behoefte wordt nog een flinke klus. Tenzij je voor een van de default profielen kiest. Maar welk default profiel?

Om ons een beter beeld te vormen van alle keuzes die nog op ons af gaan komen, is er nu de Futurotheek. Daarin kun je in 10 minuten alvast het komend decennium doorlopen, en merken op welke manier de AR brillen zich met ons leven gaan bemoeien. En zelfs al draag je er zelf geen, mensen om je heen waarschijnlijk wel. Dus je krijgt er mee te maken, en wij als maatschappij zowiezo. Wat gaat onze overheid de komende jaren regelen? En waar gaan ze zich niet mee bemoeien? Wat wordt onze eigen verantwoordelijkheid?

De reeks screenshots hieronder geeft inzicht in een aantal van de dilemma’s die zich aandienen in de Futurotheek. Met een interactief facefilter ervaar je in de Futurotheek een toekomstscenario met jezelf in de hoofdrol.

De Futurotheek is nog t/m vrijdag 2 okt te ervaren als onderdeel van de NFF Interactive Expo in Utrecht >>>

Videoconferencing facefilter

As a spin-off while developing our Futurotheque installation/story, we’ve created a Snap facefilter effect which can be used when participating in most videoconferencing tools and platform.

To activate the filters yourself and use them in your presentation:

  1. Download the Snap Camera app (available for Mac/Windows)
  2. Start the Snap Camera app and copy/paste this link below in the search field of the app.
  3. Then select it as ‘videosources’ in your videoconferencing software.

https://www.snapchat.com/unlock/?type=SNAPCODE&uuid=8e8992b5f3494d618ef5cf31e632cbfa&metadata=01

 

It has proven to be a great way to take audience on a journey to 2030, and visually explain what we’re talking about. The image below shows the effects in action during the panel session about the Furutotheek during the Nederlands Film Festival conference and the #NGI Policy Summit.

#NGI Policy Summit 2020

 

 

Futurotheek | NFF

[For English, click here >>> ]

Kunstenaar Sander Veenhof en ontwikkelaar Leonieke Verhoog werken sinds vorig jaar aan De Futurotheek. Hierbij stellen zij de vraag: besturen wij onze mobiele devices, of besturen zij ons?

De Futurotheek is een interactieve installatie waar telkens één persoon tegelijk naar binnen kan gaan. Door middel van gesprekken met wetenschappers, educatieve workshops én een set Instagram-filters onderzoekt De Futurotheek vragen over controle en agency in relatie tot de technologieën die we dagelijks gebruiken en zo onlosmakelijk verbonden zijn met ons leven en functioneren. Tijdens de NFF Conferentie-sessie laten de kunstenaars en wetenschappers het publiek kennismaken met het onderzoekstraject van De Futurotheek en de toekomstige stappen.

De Futurotheek is te beleven op de Interactive Expo in Bibliotheek Neude van vrijdag 25 september t/m vrijdag 2 oktober.

Futurotheque at Next Generation Internet Policy Summit

Augmented reality artist Sander Veenhof and Leonieke Verhoog, program manager PublicSpaces took their session attendees on a trip to the future. They did this ‘wearing’ the interactive facefilters they created for their speculative fiction and research project the “Futurotheque”. The AR effects transformed them into citizens in the years 2021 till 2030, wearing the technical equipment we can expect to be wearing during those years. But besides the hardware, the filters foremostly intended to visualise the way we’ll experience the world in the near future. Which is through the HUD (Heads Up Display) of our augmented reality wearables.

We tend to think of the future of AR as more of the same, but then in a hands-free way, but this session aimed to look beyond the well known use-cases for these devices. Of course they will provide us with all our information and entertainment needs and they can guide us wherever we are. But will that be our navigation through the physical world, or will these devices try to guide us through life? In what way will cloud intelligence enhance us, making use of the build-in camera that monitors our activites 24/7? What agency do we want keep? And in what way should citizens be supported with handling these new devices, and the new dilemmas arising from their use?

These are abstract issues, but the facefilter visualisations applied on Sander and Leonieke helped to visualise the day-to-day impact of these technical developments on us indivisuals, and have an interesting discussion with the session participants. After a dazzling peek into the next decade, the conclusion was that there’s a lot to think about when these devices are going to be part of our society. But fortunately, that’s not the case yet. We still have time to think of way to integrate this devices in our society beforehand, instead of doing that afterwards.

28 sept 18-19h | NGI program website

The NGI Policy Summit was organised by Nesta and the City of Amsterdam, in collaboration with the European Commission. It forms part of the Next Generation Internet (NGI) programme, the Commission’s flagship initiative to build a more democratic inclusive and resilient future internet.

Wie draagt wanneer welke AR bril?

In de wereld zoals we die nu kennen is er nog een duidelijke scheiding tussen fysiek en digitaal. Maar door de ontwikkelingen op het gebied van augmented reality zullen die werelden door elkaar heen gaan lopen. We kregen al een inkijkje in die toekomstige wereld tijdens de Pokemon Go rage, maar de hedendaagse AR zegt eigenlijk nog maar weinig over de echte toekomst van AR. Met name vanaf het moment dat de “AR bril” z’n intrede doet, zullen we niet enkel in een augmented wereld rondlopen, wij zelf worden vanaf dat moment ook een augmented persoon. Dat gaat niet enkel om ons uiterlijk, want in de ogen van anderen zullen we wellicht AR kleding aan hebben. Het gaat vooral om onze interacties met alles om ons heen, zoals de augmented medemens. Omdat dit abstract klinkt als geschreven tekst, is er nu de “Futurotheek” waarmee je deze toekomst scenario’s alvast hands-on kunt ervaren met jezelf in de hoofdrol, dankzij een interactief facefilter. Wuif met je hand om een jaar vooruit de springen in de toekomst, totdat je in 2030 belandt.

Zo ver is het nog niet, vooalsnog draagt nog vrijwel niemand zo’n bril dus veel van de voorbeelden die in prototype-filmpjes worden geillustreerd zijn bedacht vanuit het perspectief van één iemand die in z’n eigen wereld rondkijkt met een AR bril op. Maar een echt besef over de toekomst volgt pas door te kijken naar het moment waarop iedereen een AR bril draagt, en je niet meer mee telt zonder.
Image for post

Er wordt in Silicon Valley hard gewerkt aan het ontwikkelen van een augmented reality bril die geschikt is om een dagelijks gedragen te worden, eentje die in het dagelijks leven geaccepteerd gaat worden. Dat zal niet van de een op de andere dag gebeuren, netzomin als dat bij de smartphone gebeurde. Al was dat ene moment dat Apple de iPhone lanceerde wel een keerpunt. De vroegtijdige smartphones van Microsoft ten spijt, daar konden alleen pioniers en een kleine groep ondernemers mee overweg. Maar wie nu geen smartphone heeft, hoort er niet meer bij. Die mist dingen. En dat gaat met de AR bril ook aan de hand zijn. Wat als iedereen rondkijkt in een augmented wereld, daar van alles ziet opduiken en alles anders ziet? Er zullen stug mensen roepen dat alleen het ‘echte’ telt, maar of iets fysieke materie is of niet is al lang niet meer bepalend bij de vraag of iets echt is. Dan gaat het over de vraag of iets impact heeft, of iets zichtbaar is voor de massa. Wat dat betreft speelt er in de AR wereld nog wel een extra dilemma: in hoeveel parallele realiteiten gaan we ons begeven? Straks zijn we samen op één plek, en toch zullen we ieder een totaal ander besef van de ruimte kunnen hebben. Welk bedrijf of welke overheid neemt het op zich om in de nieuwe semi-digitale wereld te zorgen voor een bepaalde basis?

En welk commercieel bedrijf zal als winnaar uit de strijd om de universele AR cloud komen? Hoe lang zullen we daarin betrokken worden in een “Microsoft IE versus Netscape” achtige strijd? Met enige incompatibiliteit tussen AR brillen onderling kunnen we leven als gaat om optionele verschijningen, ter decoratie. Wie verzorgt je lokale graffiti? Welke reclame zie je? En in welke games ben jij wel actief maar de wereld om je heen niet? Maar als we binnen wandelen in een een toekomstige Albert Heijn of Amazon zelfsbedieningszaak wordt van ons wel verlangd dat onze bril succesvol verbinding maakt met het lokale systeem. Op een schermpje instructies aflezen tijdens het scannen van je producten en daarbij knoppen intoetsen is zelfs nu al achterhaald. Een tussenfase is de winkel vol hangen met talloze camera’s, maar op grotere schaal is dat niet een haalbare of wenselijke situatie. Dan is het efficienter om gebruik te maken van de camera en het scherm dat iedereen zowiezo met zich meedraagt. Onze AR-brillen. Bovendien, hoeveel garanties krijgen we dat de software van al die camera’s om ons heen in orde is, en de verwerking van de data zorgvuldig verloopt? In de toekomst zal de camera die wij zelf met ons meedragen een grotere rol gaan spelen in alles wat we doen. En de “heads up display” die voor ons neus verschijnt zal steeds vaker onze interactie met de wereld om ons heen begeleiden. We willen er met onze neus op zitten zodra we met externe API’s gekoppeld worden, waarvoor onze camera aan de slag gaat en data deelt met onze omgeving. We kunnen aangeven de AH te vertrouwen en de AH plug-in wel te willen draaien gedurende ons bezoek aan de winkel.

Apparaten die we kopen zullen verkocht worden met plug-ins voor onze bril. Een koffieapparaat met een mooie strakke Bang & Olufsen interface waarin niet allemaal LED lampjes verwerkt zitten. We krijgen dynamische AR interfaces onder ogen. Die verschijnen als extra laag dankzij de AR van onze bril, met aanvullende instructies indien nodig. Handig voor wie vergeetachtig is. En misschien dat we uberhaupt in de toekomst minder hebben om te onthouden, er zal zelfs minder noodzaak zijn om van alles te leren dankzij interactieve gebuikerspanelen die zich aanpassen aan onze gesteldheid. Of zich aanpassen zonder ons daarin mee te nemen. Want onze AR bril zal steeds vaker autonoom kunnen handelen namens ons, taken van ons kunnen overnemen, omdat het apparaat ons op de nauwlettend volgt en observeert en ons steeds beter leert kennen.

Met een AR bril die rechtstreeks in contact staat met de apparaten om ons heen komt die fictieve zelf nadenkende koelkast wel een klein stapje dichterbij. Waar veel IoT (Internet of Things) concepten nog geen inzicht hadden in de context, dus zich moesten baseren op historische sensor-data analyse en de live data-feed van onze quantified self sensoren zal de AR-bril daar nog een live camera-feed aan toevoegen, met alle informatie die daaruit te extraheren is. Dan weet het alwetende systeem op de achtergrond nog beter waar we zijn, hoe we ons voelen, waar we naar kijken, wat of wie er voor ons neus staat. Wat we dan nodig hebben, en welk apparaat daarvoor kan zorgen.

Maar naast onze omgang met apparaten en de digitale omgeving om ons heen, zal ook de verstandhouding met mensen tegenover ons veranderen. Wat ziet iemand die in z’n eigen AR wereld tegenover je zit? Maakt de persoon z’n beslissingen eigenhandig, of volgt iemand de aanbevelingen die verschijnen in zijn of haar HUD? En van welke software en scripts maakt iemand daarvoor in gebruik? Geven we elkaar daar in de toekomst inzicht in, zodra we elkaar treffen? En zzoals sporters te maken hebben met regelgeving over wat toegestaan is qua technische hulpmiddelen, hoe ver accepteren we het van elkaar als software zich gaan mengen in onze menselijke interacties? Gaan we het ooit weer herwaarderen als iemand helemaal zelf denkt? Is het netjes om je bril af te zetten tijdens een meeting of diner, zelfs al zien de brillen er niet zo creepy uit als de opzichtige Google glass van weleer, en zijn we zelfs gewend aan het feit dat iedereen iets draagt? Op mensen met digitale contactlenzen na dan. Of gaan die ook uit tijdens een gesprek, fysiek of softwarematig?

Moeten we ons zorgen maken dat iemand tegenover ons meer ziet dan wat die persoon met het blote oog zou waarnemen? In welke situaties en met welk doel zijn bepaalde functies van de bril acceptabel? Iemand met autisme die dankzij de AR bril toch vat krijgt op de onuitgesproken communicatie, dankzij de feilloze detectie van emoties in het gezicht van de ander? Kan zoiets een brainstorm versnellen, als er een tag-cloud aan ideeen en iconen rondom ons hoofd zweeft, en onze bril kan peilen hoe de andere daarop reageert? Accepteren we zoiets tijdens meetings waarin we over iets moeten onderhandelen? In veel discussies over AR toepassingen klinkt toch vaak een zorgelijke toon. Om een stap verder te komen in die discussie en omdat de toekomst een multi-user AR-bril universum gaat worden, is het goed om te kijken naar toepassingen die met wederzijdse overeenstemming gehanteerd worden. Misschien dat we zelfs onderhandelingen in kunnen stappen waarbij we onze brillen onderling de uitkomst laten bepalen op basis van vooraf ingestelde criteria, gewenste uitkomsten en randvoorwaarden. Een script dat namens jou de zaken afhandelt. In hoeverre zijn wij daar zelf nog voor nodig, fysiek, met onze bril op?

Image for post

“Open Source Personality” (proposal for Second Life avatar project)

Krijgen wij de rol van beheerder, en hebben we het overzicht over meerdere avatars die namens ons een eigen bewegingsvrijheid hebben, tot een bepaalde grenswaarde, die bepaalt wanneer wij weer zelf live ingrijpen de regie terugpakken? En als een handeling uitsluitend binnen het digitale gedeelte van de wereld heeft plaatsgevonden, kunnen we dan met onderlinge afstemming een roll-back of undo doen?

Image for post

Zodra het deze richting op gaat, doemt het beeld op van een passieve mens die zich in slapende toestand in virtuele werelden bevindt. Maar dat is een mooi punt om deze AR toekomstverkenning mee af te kappen. Dat gaat het over zorgen waar experts uit het VR domein zich over mogen buiten. In het AR kamp geldt enkel de taak om het niet zo ver te laten komen, en het maximale te halen uit de mixvorm van onze levendige fysieke wereld waarvan met een extra virtuele laag een unieke maakbare wereld te maken valt.

DIY AI

Waarom het tijd is voor “DIY AI”? Zie dit artikel.

Eerdaagse de eerste bevindingen met de web-app hieronder.

Waarom is het tijd voor Do-It-Yourself AI?

Techniek speelt een steeds grotere rol in alle aspecten van ons leven. De discussie over de kwalijke aspecten wordt momenteel overal en door iedereen gevoerd. Maar zelfs de experts verschillen van mening over de vraag of we al reddeloos verloren zijn, of dat er nog een oplossing te verwachten is.

Een volledige oplossing lijkt nog ver weg, maar tot die tijd is het zinvol om wel alvast stappen te zetten om bepaalde oorzaken van de problematiek aan te pakken.

In de tekst hieronder wordt geschetst hoe “Do-It-Yourself AI” een oplossingsrichting is voor twee problemen die momenteel spelen.

Een groeiend aantal mensen maakt zich zorgen over de dubieuze aspecten van social media. Hoe manipuleren partijen zoals Facebook ons? Hoe nauwkeurig worden we geobserveerd, waar komt de data terecht en hoe ziet ons profiel er daar uit?

Nog een zorgelijke ontwikkeling is de robotisering. Worden we straks overbodig als robots al ons werk gaan doen? Geen zorgen, we gaan niet stil zitten. Wij nemen de positie van de robots in. En dat is wel zorgelijk.

De twee zorgen krijgen met elkaar te maken door de ontwikkelingen op het gebied van Augmented Reality brillen. Alle tech-bedrijven zijn daar druk mee bezig, ook Facebook. Maar wat als we de wereld aanschouwen door de bril van Facebook?

Wat dienen we te ervaren als een handigheid, en wat komt neer op manipulatie? In het voorbeeld hierboven een date. Vooralsnog erg onrealistisch dat je op date gaat met zo’n bril, maar de brillen worden compacter en comfortabeler.

Het leek alsof de AR bril succesvol was verslagen doordat de maatschappij zich massaal tegen Google Glass had gekeerd. Maar het blijkt een zevenkoppig monster.

Talloze tech-bedrijven zijn druk bezig nieuwe versies te maken en die worden beter, subtieler en krijgen een betere batterij. Je kunt ze de gehele dag op hebben, zonder dat de omgeving dat door heeft en daar aanstoot aan neemt.

Grote kans dat de toekomstige mens rondloopt met een HUD, een Heads Up Display. De hele dag door meldingen waar je niet aan kunt ontkomen. Een beetje zoals op onze smartphone, maar dan in-your-face.

Als we de AR bril net zo obsessief gaan gebruiken als onze telefoon nu, dan ontstaat een ongekende versnelling van de hoeveelheid data die we uit gaan wisselen met de cloud.

We blijven de bril op ons neus houden zolang die goed functioneert. Het apparaat krijgt alle kans om permanent met ons mee te kijken, alles observerend met object recognition. Met AI in de cloud gaat de bril ons steeds beter kennen, zodat de gebruikservaring ook steeds prettiger wordt. We zetten het apparaat niet meer af.

We hebben nog de keuze om de monitoring uit te schakelen. Maar het is een schijnkeuze. Het apparaat verleid ons de permissies te verstrekken met de mededeling dat alleen met nog meer data de service echt goed kan zijn. (Of we maken de keuze niet eens bewust, uit haast, gemakzucht of onkunde).

Dankzij GDPR wetgeving weten we officieel wel waar onze data blijft. Maar helaas zijn er loopholes. Met name de afgeleide data die wordt gecreëerd na bestudering van de data over onze bezigheden en voorkeuren, daar krijgen we geen inzicht in.

We raken volledig overgeleverd aan de cloud. Meerdere clouds zelfs. Elke stuk hardware of software is aan het proberen een zo goed mogelijk profiel van ons op te bouwen.

Het zijn de usual suspects. Er zou nog hoop zijn als er een alternatieve optie zou zijn. Maar ….

Maar zelfs onderling gaat het twijfelachtig zijn of meerdere cloud diensten elkaar gaan verdragen. Vermoedelijk wordt het een concurrentiestrijd om het alleenrecht die zich weer via ons zal afspelen.

Het is de vraag of het goed komt als we niet ingrijpen. Zelfs al gaan er filosofen aanschuiven bij de bedrijven om de ethische kwesties aan te stippen, een echte radicale verandering zal niet op treden, en die is wel nodig. Er is maar één oplossing die echt werkt om big-tech niet langer machtiger en invloedrijker laten worden: alles weer naar onszelf toe trekken.

Het aantal initiatieven om die wens nader invulling mee te geven neemt toe. Bijvoorbeeld het Nederlandse #IRMA en Solid van Tim Berners-Lee, de uitvinder van het World Wide Web. Eensgezind is men dat er ‘data kluisjes’ nodig zijn waarin je weer zelf eigenaar wordt van je eigen data en bepaalt wie er wanneer bij kan.

In veel van de voorbeelden die worden gegeven wordt toegelicht hoe je je persoonlijke data kunt beschermen. Maar het is belangrijk dat ook het hele ecosysteem aan apps mee gaat in deze opzet. Met name is het van belang dat afgeleide ‘derived’ data niet ontstaat in een externe cloud, maar dat ook die data binnen de eigen datakluis terecht komt.

Apps bereiken je dan niet langer ongevraagd en pro-actief omdat ze via monitoring weten wanneer je behoefte aan iets hebt. Die kennis hebben ze niet meer. De dynamiek wordt anders. Een app kondigt nog wel aan welke diensten er voor je zijn, maar zelf bepaal je of je daar wel of niet op in gaat. De interactie met apps gaat verlopen via een “API“, een Application Programmers Interface en biedt voordelen én nieuwe mogelijkheden.

 

Kiezen welke functies je door welke cloud laat uitvoeren wordt een bewuste keuze. Clouds kunnen zich differentiëren op meer dan alleen maar de geboden functionaliteit. Transparantie wordt een factor die bepaalt of je een cloud wel of niet voor een bepaald doel gebruikt. Vertrouwde clouds krijgen rechtstreeks toegang tot je data. Een cloud waarvoor dat niet geldt, krijgt enkel inzicht in actuele afgeleide data. Zo’n cloud kan wel opvragen en vernemen of je op een bepaald moment in de stemming bent voor een dienst, maar niet de reden waarom. Dat wordt bepaald door je eigen software die zich baseert op data in je lokale cloud. Eigen data wordt daarin verzameld om middels Do-It-Yourself AI te worden verwerkt tot een of meerdere eigen profielen die bestaan uit afgeleide data en regels.

Outsourcing van deze activiteit is ook mogelijk. Een hele data-set wordt dan verstrekt aan een krachtige maar trusted cloud dienst, die bijvoorbeeld wel voldoende inzicht en controle biedt op de verwerking. De resultaten komen niet terecht in een profiel op een externe server. De bevindingen, conclusies en regels worden teruggekoppeld om lokaal in de eigen cloud te worden opgeslagen.

Het wordt op die manier mogelijk om je eigen functioneren te verrijken door de juiste software te installeren. Dat lijkt een beetje op de situatie zoals destijds in Second Life. Een standaard avatar kon daar niets, maar in de winkels in SL was niet alleen virtuele kleding te koop, ook waren er hele bewegingsroutines en andere scripts te koop waarmee je avatar superkrachten kreeg. Als je naar de virtuele disco ging, eerst even langs een shop om de nieuwste dans-moves te kopen en te installeren.

Het is moeilijk om ons voor te stellen hoe zo’n mechanisme voor een gewoon mens zou kunnen gaan gelden. Maar om het niet enkel een abstract verhaal over de toekomst te laten zijn, is er het initiatief “Be Your Own Robot”. Met een web-app kun je alvast struinen in de app store van de toekomst waar allerlei soorten scripts te vinden zijn waarmee je jezelf als mens kunt upgraden.

De scripts werken nog niet écht, de context bestaat immers nog niet. Maar je kunt de apps al wel ‘installeren’ waarbij je ook al de juiste configuratie opties moet kiezen. Daardoor kom je hands-on alvast in aanraking met de dilemma’s die in de toekomst gaan spelen als deze situatie een realiteit is geworden.

 

Het draait er in deze opzet om dat je niet je hele leven compleet uitbesteed aan een externe cloud. Daar wil je veel meer regie over hebben met configuratie-opties waarmee je zelf per aspect van je leven kunt bepalen op welke manier daar Artificial Intelligence een rol in mag spelen. In sommige gevallen is onnavolgbare AI acceptabel, in andere gevallen wil je zelf scherp toezicht houden op de regels die gaan bepalen wanneer je iets wel of niet dient te doen. Dat lijkt vooralsnog een kwestie van een notificatie op je telefoon negeren, maar het wordt een andere situatie wanneer een script je iets aanbeveelt of opdraagt via je augmented reality bril, die je in de toekomst vaker en vaker op hebt.

Als een extern systeem het idee heeft dat je happy bent, en je als gevolg daarvan zodanig behandeld wordt, waar is dat dan op gebaseerd? Vertrouw je erop dat een systeem autonoom de juiste regels over je heeft opgesteld? Misschien is het beter om zelf de verantwoordelijkheid te nemen voor je eigen regels, en die vanaf scratch op te stellen zodat je zelf goed het overzicht behoudt. Met de “IF this THEN I” web-app kun je eens ervaren tot wat zoiets kan leiden.

Met een aantal regels die onderling samenhangen, volgt als snel een dynamische situatie die een eigen leven gaat leiden. Maar je hele leven op die manier scripten is ondoenlijk. In specifieke situaties zou het fijner zijn om toch een AI systeem in te zetten. En voor sommige gevallen kan het ook de voorkeur hebben om helemaal geen inmenging van een computer script te hebben.

Om hier de juiste keuzes in te maken, kan het nodig zijn zelf wat meer inzicht te krijgen in de werking van AI. Dat betekent niet dat ieder individu z’n eigen AI software moet implementeren. Die bestaat al, en het prettige van bepaalde soorten AI is dat er eigenlijk geen complexe logica opgesteld  De AI categorie “Machine Learning” werkt op basis van grote data-sets waarmee een systeem automatisch wordt getraind.

De interface (zie hieronder) van dat soort software oogt ingewikkeld, maar de voornaamste taak voor een gebruiker is zorgen dat de juiste data er in gestopt wordt. Vervolgens is het een kwestie van meerdere trainings-opties uitproberen totdat resultaten acceptabel of zelfs goed genoeg zijn.

Wat de juiste resultaten zijn, moet wel helder aan te geven zijn. Een Machine Learning systeem leert zichzelf regels aan op basis van data-sets waarin duidelijk is aangegeven wat de input is en wat daarbij de juiste output is. Training levert vervolgens de juiste regels op in het tussenliggende gedeelte waarmee het systeem later zelfstandig in nieuwe situaties de juiste output kan geven.

Het heeft voordelen om zelf hands-on in de weer te gaan met je eigen Artificial Intelligence. Dat komt neer op je eigen input data verzamelen waarover je zelf aangeeft wat de juiste corresponderende output data. Je was er zelf bij, dus je kunt nog veel beter dan Google of Facebook aangeven wat je aan het doen was of hoe je voelde toen de data werd verzameld.

Met een “DIY AI” app heb je bovendien goed de controle over de momenten waarop er data ontstaat die geschikt is om toe te voegen aan een AI data-set. Zelfs kun je daarbij kiezen voor welk profiel de data-set bestemd is zodat je tegelijkertijd aan meerdere profielen over jezelf kan werken. Dat is een geheel andere situatie dan de huidige, waarin we volledig schaduwprofiel in de cloud waardoor grote tech-bedrijven ons door en door in de smiezen hebben.

Het is tijd voor “Do-It-Yourself AI”. Dus wanneer mensen in het vervolg obsessief met hun telefoon bezig zijn, kan het ofwel Pokemon Go zijn ofwel ze zijn zichzelf even opnieuw aan het configureren.

Wordt leven een ICT project?

Het lijkt onvermijdelijk dat artificial intelligence in de toekomst een nog grotere invloed op mens en maatschappij gaat krijgen. Systemen in de cloud leren ons steeds beter kennen dankzij alle data die we terloops of noodgedwongen verstrekken via de apps die we gebruiken. We hebben geen keuze, of we kiezen niet eens. Apps benaderen ons pro-actief met nieuwe features die steeds perfecter aansluiten op wat we willen, waarna we nog meer aspecten van ons leven toevertrouwen aan algoritmes.

Dankzij GDPR wetgeving kunnen we tegenwoordig wel volgen waar onze data blijft, maar de daaruit afgeleide data is eigenlijk waar het om draait. De inmenging van AI in ons leven verloopt op basis van de vele observaties, conclusies en regels die terecht komen in de profielen die talloze apps over ons bij proberen te houden. Ofwel daar moeten we inzicht in kunnen opeisen, ofwel we moeten de regie terug nemen en het zelf gaan doen. De mens is toe aan een API (Application Programmers Interface) waarmee we de het data-contact met de buitenwereld regelen. Per aspect van ons leven moeten we kunnen bepalen of we daar AI voor willen toepassen, of niet. Kiezen we dan voor overzichtelijke “IF this THEN I” regels, of durven we het aan om ons handelen te baseren op nauwelijks traceerbare Machine Learning?

Om die keuzevrijheid te verkrijgen is hoe dan ook een radicale verandering nodig in de manier waarop apps en mensen zich tot elkaar verhouden. Het zal niet eenvoudig zijn om de tech-bedrijven aan zo’n transitie mee te laten werken. Daar zal regelgeving voor nodig zijn. En het zal ook niet eenvoudig zijn voor individuen om deze nieuwe mogelijkheden in de praktijk te brengen. Het leven zal nog meer dan nu een ICT project worden. Mag je de straat op zonder dat je de laatste updates hebt geïnstalleerd? En met ongecertificeerde of ‘freemium’ scripts? Misschien is daar ook nieuwe regelgeving voor nodig. De self-driving car is nog niet toegestaan op de Nederlandse weg. Maar hoe zit het met een mens die functioneert op basis van ambachtelijke do-it-yourself AI?

Op 17 donderdag 17 januari tijdens get Oddstream Café meetup staat het bovenstaande centraal in een discussieavond met als titel “Program or be programmed”. 

Me Myself AI

Om aan de zorgelijke aspecten van AI te ontsnappen zelf met Artificial Intelligence in de weer te gaan, is dat wel de juiste oplossingsrichting? Ja, want een deel van de problemen met AI komt doordat we er te weinig grip op hebben in de huidige vorm waarin we er mee te maken krijgen. AI klinkt als complexe materie, dus dat zelf doen klinkt nog ingewikkelder. Maar dat is ten dele waar. Het gaat er niet om zelf AI software te maken, die software is er al. Het gaat om het juist configureren en gebruiken van de software. Daarvoor is enig begrip nodig over de werking, en er is daadkracht nodig om daadwerkelijk los te komen uit de huidige situatie, die als voordeel heeft dat we geen omkijken hebben naar het de data-verwerking die Facebook en Google ‘voor ons’ doen.

Hieronder een korte toelichting van de benodigde stappen. Over de exacte manier waarop dit in werking te zetten is, later meer:

Stap 1)

Start je eigen dataverzameling. Het gaat daarbij om meer dan je ‘statische’ privé gegevens. Zorg dat data over je verplaatsingen, de data uit je fitness tracker of de data uit je andere wearables bij jezelf terecht komt. Je eigen data is het startpunt om geleidelijk je eigen Artificial Intelligence systeem op te tuigen.

Stap 2)

Bepaal op welke momenten en voor welke gelegenheden je AI in je leven wilt toelaten. Niet Facebook of Google gaan pro-actief bedenken wanneer iets geschikt voor je is, dat ga je weer zelf bepalen. Daarbij hoort uiteraard ook de keuze om ergens geen AI voor in te zetten.

Stap 3)

Speur naar de benodigde software en controleer welke input nodig is. Een veel toegepaste vorm van AI is Machine Learning. Dit type software is te trainen met data uit het verleden zodat de software naderhand zelf de juiste respons kan geven. Maar daarvoor is dus wel een dataverzameling nodig waarbij het verband wordt gelegd tussen bepaalde situaties en de daarbij behorende respons. Zorg dat de benodigde data binnenkomt in je eigen data-verzameling.

Stap 4)

Je kunt de verzamelde data naderhand beoordelen en voorzien van de juiste respons maar dat kan ook doorlopend gedaan worden, je zit immers bovenop de data vergaring en dat heeft voordelen. Met een app kun je aangeven wat je doet, of het goed verloopt en

waarom je iets doet. Daarmee kan je eigen AI systeem inzicht verkrijgen in je bezigheden. Momenteel doen Facebook en Google dat ongevraagd. Door daar zelf de regie over te nemen, is het geen gis- en gokwerk maar zorg je dat je eigen profiel is gebaseerd op data die je zelf relevant en toepasselijk acht.

Stap 5)

Zodra er voldoende data is verzameld en je eigen AI systeem zichzelf heeft aangeleerd hoe het dient te functioneren, kan het in werking worden gesteld. Configureer op welke momenten het systeem autonoom mag handelen namens jou, en stel bij externe diensten en partijen in dat het AI systeem namens jou de zaken afhandelt. Komt Facebook of Google met een aanbod? Het is aan jouw AI systeem om te laten weten of er interesse is.

Wat is nodig voor DIY AI?

Het antwoord op die vraag gaat de komende periode veranderen. Dit hands-on onderzoeksproject heeft als doel om dat te inventariseren, te verwijzen naar de benodigdheden of te ontwikkelen wat nog ontbreekt. De benodigdheden hangen overigens af van het antwoord op de onderliggende vraag: voor wat en wanneer is eigen AI zinvol in te zetten? In hoeverre dit een proof-of-concept implementatie wordt of al concreet toegepast kan worden, zal nog moeten blijken. De buitenwereld is in elk geval nog niet geheel klaar om mee te gaan in de beoogde nieuwe opzet. Van Facebook en Google zijn we voorlopig nog niet af. Maar zonder een begin te maken, blijft een oplossing zowiezo ver weg.

Meer info: Me Myself AI

IF_this_THEN_I

Dat apps en artificial intelligence systemen steeds meer van ons doen en laten bepalen, accepteren we. Maar dat we geen zicht hebben op de algoritmes, is eigenlijk onacceptabel. Lukt het nog om de regie terug te nemen? IF_THIS_THEN_I is een poging daartoe. Wel het gemak van een algoritme dat je klakkeloos kunt volgen, maar dan met invloed op de regels die invloed op jou hebben.

Met de mobiel staan we op, we gaan er mee op pad en vallen er op terug zodra we het even niet meer weten. En er komt tegenwoordig steeds meer pro-actieve assistentie bij. Google Maps waarschuwt ons op tijd dat ons laatste trein vertrekt. Facebook en Instagram suggereren wie we als friend moeten toevoegen. Het zal niet lang duren voordat dit soort techniek zich ook inhoudelijk met ons doen en laten gaat bemoeien. Zeker als het tijdperk van de augmented reality brillen aanbreekt. Dan ontkom je helemaal niet meer aan de suggesties en tips die in-your-face verschijnen. Zoals een melding tijdens een borrel dat je met de verkeerde persoon staat te praten. Of gesprekssuggesties indien je wel met een relevant persoon staat te praten waarmee iets specifieks bereikt moet worden. Al weet je dat misschien zelf nog niet eens. Dankzij AI kent software ons beter dan we ons zelf kennen.

Geleidelijk (en ongevraagd) neemt het aantal situaties toe waarin we algoritmes vertrouwen ons te leiden. Indien dat correcte en waardevolle input is, gaat de geautomatiseerde aansturing er bij horen en willen we zelfs niet meer zonder. We zetten het naar onze hand door de instellingen aan te passen. Maar misschien is het opgeven van voorkeuren wel te vrijblijvend. Hoe weet je zeker dat het algoritme ook echt wat met je voorkeuren doet? Wat als je zelf je eigen keuzes wil maken? Wellicht wens je dat Google je een dag met rust laat. Of wil je Facebook gebruiken met je eigen regels, zonder dat een algoritme bepaalt wat je te zien krijgt?

Het is de hoogste tijd dat de systemen die ons aansturen modulair worden opgebouwd. We hebben recht op keuzevrijheid om te bepalen welke algoritmes met ons aan de haal gaan. Halen we iets van een marktplaats voor algoritmes, eventueel met een betrouwbaarheids- en kwaliteitskeurmerk van de overheid? Of we verkiezen ambachtelijke zelf gemaakte ‘engine’ met daarin onze eigen regels en voorkeuren. Met IF_THIS_THEN_I is dat mogelijk. Het systeem bestaat uit een web-app die aangeeft wat je moet doen en waarmee je ook de regels instelt die bepalen wat je wanneer doet.

Tijdens het Oddstream art & technology festival konden bezoekers het systeem aan den lijve ondervinden hoe dat zou kunnen werken. Een aantal personen rond een tafel was daar de situatie waar de regels op van toepassing waren. Regels zoals: als er iemand op stoel 1 zit, ga ik onder de tafel zitten. Als er iemand onder de tafel zit, ga ik zingen. Als er iemand zingt, ben ik happy. Als er niemand happy, stop ik m’n telefoon in m’n zak.

Zodra de ene bezoeker een taak uitvoert, en dat bevestigt, kan op de telefoon van een andere bezoeker een nieuwe taak getoond worden, indien er een regel wordt getriggerd. De bezoekers zijn via de regels rechtstreeks met elkaar verbonden, zelfs al zien omstanders vooral een groep mensen die individueel en geobsedeerd op de eigen mobiel aan het staren is.

Maar wat als dat tot het verleden gaat behoren zodra we wat vaker augmented reality brillen gaan dragen? Dan verloopt de inmenging en aansturing vanuit Silicon Valley ongemerkt en onzichtbaar. Met dat vooruitzicht is het goed om nu alvast de alternatieven te verkennen, voordat het te laat is. Want met alle data die reeds over ons verzameld wordt en alle manjaren werk die nu reeds in de ontwikkeling van dergelijke AR techniek wordt gestopt, is de kans groot dat we bij het opzetten van een aantrekkelijk vormgegeven, lichtgewicht AR bril nieuwe stijl een toegevoegde waarde ervaren die ons overtuigt het apparaat te gaan gebruiken. En met een geleidelijk toenemend aantal gebruikers, is er een kans dat we met een transitie te maken krijgen die, net zoals de smartphone destijds, de wereld significant zal veranderen.

Want wat betekent het als we doorlopend worden gevolgd en aangestuurd door de cloud? In hoeverre hebben we dan nog de regie over ons eigen leven? Is

dat beperkt tot de opties in het configuratie-scherm? Een volledig eigenhandig ingesteld If_this_then_I systeem om je eigen handelingen mee te definiëren is het andere uiterste, onrealistisch en onwerkbaar. Maar het bestaan van alternatieven helpt bij het bedenken wat de middenweg is die voor ons wél acceptabel is.

ifthistheni.com

De augmented consument

Wie zich afvraagt hoe de winkel van de toekomst eruit ziet, kan beter de vraag stellen: hoe verschijnt de winkel van de toekomst op ons netvlies? Wat zien we straks door onze augmented reality brillen als we gaan shoppen? Om op die vraag niet het gebruikelijke antwoord te geven, is het tijd om nu eens niet het perspectief van de supermarkt als uitgangspunt te nemen maar het perspectief van de consument. Klopt het toekomstscenario dat wordt geschetst in de vele conceptvideo’s?

Het lijkt onvermijdelijk dat we te maken krijgen met augmented reality bewegwijzering die ons soepel van schap naar schap begeleidt. Daar treffen we dankzij een dynamische virtuele laag een uiterst persoonlijk assortiment aan. We maken gebruik van recepten apps die weet hebben van de inhoud van onze smart koelkast en de app houdt rekening met de ‘quantified self’ data die slimme wearables over ons bijhouden. Het kopen van de juiste producten gaat bijna vanzelf, maar wat bepaalt welke producten in het oog springen?

In de video’s wordt niet stil gestaan bij de vraag wie de bril levert en welke app erop draait. Voorlopig zullen we nog niet massaal en zeker niet 24/7 een eigen AR bril op de neus hebben, al zal dat stapsgewijs wel meer ingeburgerd raken als dat voor een bepaalde situatie gemak of (tijd)winst gaat opleveren. Zolang we nog geen eigen bril op zak hebben, zal het aan de winkels zijn om ons tijdens het winkelen een bril te verschaffen. Het voordeel daarvan voor de winkel is dat wordt uitgesloten dat we ons gaan informeren over producten via alternatieve apps.

 

Toch gaat in de winkel op den duur een situatie ontstaan zoals we van Tripadvisor kennen. Consumenten raden elkaar producten aan, of af. Prototypes van dergelijke toepassingen bestaan nu al, maar de handeling om tijdens het winkelen per product de smartphone erbij te pakken en daarmee te scannen, maakt dat het vooralsnog bij een proof-of-concept blijft. Pas als we het gemak van een bril hebben én de meerderheid van de producten in het systeem zit, gaat zoiets werken. Voorlopig is het dus de winkel die in control is. Mogelijk dat we bij producten meldingen gaan aantreffen zoals op Booking.com. “16 mensen eten op dit moment deze pasta”. “Vier minuten geleden voor het laatst gekocht”. “3 mensen bekijken tegelijk dit laatste pak bio-worsten”.

In hoeverre laten we ons op die manier aansturen en aanjagen? We krijgen wat meer keuzevrijheid als we met onze eigen AR bril de winkel inlopen. Of starten we toch keurig de winkel-app? Worden we daartoe verleid met virtuele tamagotchi‘s die we in leven houden met extra aankopen? Of gaat korting bij de kassa het gebruik van de juiste app afdwingen? En gaan we korting mislopen als we niet toestaan dat de bril data uit de cloud over onze gesteldheid en voorkeuren gebruikt om te zorgen dat we geen onweerstaanbare aanbieding mislopen? Misschien dat we zelfs extra korting krijgen als we ons via wat extra schappen naar de kassa hebben laten leiden? Dat lijkt op het nemen van een TukTuk in India: iets meer rupees betalen als er wordt beloofd dat er niet wordt omgereden om een tussenstop te maken bij een handicraft-winkel. In ons toekomstige robot-bestaan gaan privacy en efficientie een prijs krijgen, als we ons door de beloofde korting niet laten opjagen.

tweakers.net/partners/zaandam-valley/91/ochtendsessies/

Wanneer kunnen we met virtuele kleding naar buiten?

Jacob Kok en Sander Veenhof zijn onderdeel van “Ensemble de Solution”, een internationaal team van professionele ontwerpers die pioniers zijn in het uitwerken en toepassen van virtuele kledingconcepten. In een doorlopend onderzoek wordt met behulp van augmented reality verkend wat interactie met een virtuele laag kan betekenen voor de ontwikkeling van onze beleving van kleding.  Het wordt tijd om de definitie van kleding op te rekken. Als de beperkingen wegvallen dat een virtuele creatie nog uitgewerkt moet worden in iets fysieks, welke oneindige mogelijkheden levert dat dan op? Zal er een nieuwe esthetiek ontstaan, zoals die ook is ontstaan sinds de komt van de filters, virtuele maskers en andere digitale hulpmiddelen waarmee we in staat om onze identiteit gelaagd uit te drukken? Hoe gaan we in de toekomst om met het vormgeven van ons zelf, wanneer mixed reality onze dagelijkse realiteit is?

https://dezwijger.nl/programma/ar-the-augmented-self

Waarom een Futurotheek?

De Futurotheek is onderdeel van een reeks projecten die gaan over de vraag hoe wij als toekomstige mens door het leven zullen gaan. De versie van de Futurotheek die nu op het NFF te zien is, is een vervolg op een prototype dat sinds 2019 in ontwikkeling is. De huidige ‘immersive’ versie is het resultaat van een samenwerking tussen Sander Veenhof en Leonieke Verhoog. In dit interview uit 2019 met Sander Veenhof, licht hij toe wat de ontstaansgeschiedenis en de achtergrond van het initiatief is.

Wat is de Futurotheek?

Deze Futurotheek is gerelateerd aan het project “Be Your Own Robot” waarin ik fictieve apps ontwikkel waarmee de wereld van de toekomst alvast hands-on te ervaren is. Het is een ontwerpend onderzoek naar een wereld waarin wij nog meer dan nu worden aangestuurd door techniek. In plaats van schrijvend te speculeren over wat komen gaat, en schrijvend te benoemen welke kansen en risico’s er bestaan, ligt de focus binnen dit project op speculatieve apps waarmee een (nog) niet bestaande toekomst alvast in het hier en nu aan den lijve ervaren kan worden.

Wat is de aanleiding?

Het internet zal in de toekomst een nóg veel grotere rol gaan spelen in ons leven. In toenemende mate raken de online en offline wereld met elkaar verweven. De mens wordt onderdeel van het internet of things waarbij apps ons doen en laten bepalen, zeker als de cloud ons in de gaten houdt en aanstuurt via wearables en augmented reality brillen. Over zo’n toekomst wordt veel geschreven. Maar het blijft voor veel mensen lastig om zich voor te stellen dat de wereld uit science fiction films binnenkort ook hun werkelijkheid wordt. Enerzijds is er de (nog) onwerkelijke wereld van series zoals Black Mirror, waarin de toekomst-ideeen zo ver en zo perfect zijn doorgevoerd dat we geruststellend kunnen concluderen dat het zo ver nog niet is. Anderzijds is er de geschreven tekst waarin consequent wordt geschreven dat het over 10 jaar echt allemaal anders is.

Met het “Be Your Own Robot” initiatief hoop ik op een nieuwe manier invulling te geven aan dat tussengebied. Door te veronderstellen dat de toekomst er al is, kunnen nieuwe soorten apps worden ontwikkeld. Het geeft een creatieve en innovatieve vrijheid als een app niet beperkt wordt door de vereiste van een volledig operationele “internet of things” samenleving. Het maakt het mogelijk om een fictieve science fiction toekomst te ervaren maar dan in real life.

Wat is een hands-on toekomstverkenning?

In de eerste fase van het project staat een web-app centraal waarin een aantal toekomstscenario’s hands-on te ervaren zijn. Het voorbeeld van de zelf nadenkende koelkast wordt in artikelen telkens maar weer herhaald om mee aan te duiden hoe onze leefwereld er uit zal gaan zien. Maar wat als elk ding in je nabije omgeving de hele dag van zich laat horen? Hoe configureer je je relatie met zo’n koelkast en krijgt de mens ook een eigen configuratie-scherm dat bedient kan worden via een app? Er kan al een goede indruk worden gegeven van het dagelijkse leven in de toekomst met een eenvoudige smartphone-toepassing. De futuristische spraak- of gebareninterface in het luchtledige zal maar voor een beperkt aantal gelegenheden toepasbaar zijn.

De scenario’s die zich via de web-app aandienen geven inzicht in de wijze waarop het internet in de toekomst ons leven nog indringender zal bepalen. Een échte interactie met de koelkast hoeft niet, want het is fictie. Jezelf écht configureren via een configuratiescherm ook niet. Maar toch ontstaat de mogelijkheid om aan te voelen wat het betekent om mens te zijn in een toekomst waarin ieder van ons is veranderd in een ICT project.

Een belangrijke doelstelling met de app is kennisoverdracht, zodat mensen meer inzicht krijgen in datgene wat er zich afspeelt nu en in de toekomst. Voor de betrokkenen in deze pilot sessie (en hopelijk tijdens de sessies die hierna nog volgen) zal deze interactieve vorm een manier zijn om dieper en concreter in de materie te duiken, zonder dat het de leesbaarheid negatief beïnvloed. Door een hele reeks “Hoe dan?” en “Wat dan?” vragen op rij te stellen en te beantwoorden en direct uit te werken, ontstaat er een prikkelende omgeving om tot nieuwe inzichten te komen. Eindeloos veel situaties opsommen werkt niet, maar als de inhoud zich verspreid door de dag aandient via een app is er meer mogelijk.

Met een web-app die in deze pilot ontwikkelt wordt kunnen mensen de impact van toekomstige ontwikkelingen in het hier en nu ervaren. Dat geeft hen een realistische (zij het fictieve) inkijk in de toekomst en deze beeldvorming helpt bij het ontwikkelen van een eigen mening over datgene wat zich gaat voltrekken. En met meer zicht op de toekomst, zijn er mogelijk al acties in het nu te ondernemen om bepaalde problemen voor te zijn of zelfs om op tijd in te spelen op kansen die komen gaan.

Wat is het doel van de web-app?

De reikwijdte en de impact van technische ontwikkelingen op ons menszijn is enorm. Voor veel mensen voelt de impact van het ontastbare ‘internet’ op alles en iedereen overweldigend, en een gebruikelijke reactie is afwachten of afwijzen. Toch zijn ingrijpende veranderingen onontkoombaar. De kracht die bij de grote tech-bedrijven ligt is enorm. Soms komt de mensheid nog stevig in protest, zoals tegen Google Glass. Maar de videorecorder-bril van bedrijf Snap wordt in bepaalde kringen omarmd. Kunnen wij nog iets betekenen als individu? Kan de overheid ons bijstaan? Wat is goed en fout? Het is lastig om daar de vinger op te krijgen. De urgentie van die vraagstukken is nauwelijks in geschreven tekst uit te drukken, en wie heeft er de tijd om alles te lezen en zich een mening te vormen en die te vertalen naar acties? Nu valt er nog iets te kiezen, maar als een augmented reality contactlens ons in de toekomst met alles ‘helpt’? Komt er een wereld waarin we als robots door het leven gaan, waarin het een uitdaging wordt om mens te blijven? Vraagstukken die betrekking hebben op onze relatie met techniek staan in dit project centraal. Navraag om ons heen merkten maakte duidelijk dat deze vraagstukken spelen, en mensen benieuwd zijn naar wat dat dan concreet voor hen zal betekenen. “Be Your Awn Robot” voorziet in die nieuwsgierigheid met interactief te beleven scenario’s.
Het voornaamste doel van deze pilot is ontdekken of deze vorm van ‘vertellen’ over de toekomst werkt.

Wie heeft er wat aan dit project?

De app zal inhoudelijk tot stand komen o.b.v sessies met experts, waarbij toekomstinzichten uit artikelen worden omgezet in alledaagse meldingen, berichten en suggesties die zich op de smartphone manifesten. Als de basis staat, kan de app verder uitgebreid worden o.b.v nieuwe sessies met andere experts. Met een werkend voorbeeld zal het makkelijker zijn om relevante denkers en doeners te betrekken. De doelgroep van het project is daarom eigenlijk zowel het ‘lezerspubliek’ als ook de bloggers, journalisten en onderzoekers die baat kunnen hebben bij deze interactieve representatievorm van hun artikelen.

Waarom nu?

Met een achtergrond als bedrijfsinformaticus en een diploma “Instabiele Media” op de Rietveld academie verkende ik de afgelopen jaren de artistieke mogelijkheden van augmented reality. Momenteel verandert de definitie van “AR”. Het visuele wordt minder belangrijk en de essentie komt te liggen op het feit dat online data op lokatie invloed heeft op wat zich daar afspeelt. De maatschappelijke impact van AR is daarom een steeds belangrijker onderwerp in mijn projecten. Het is een onderwerp dat breder is dan het technische. Ik verken het onderwerp door prototypes te maken en experimenten te doen. Daarnaast lees ik veel artikelen, onderzoeken en blogs waarin wetenschappers en futurologen schrijven over een toekomst waarin niets en niemand zich nog kan onttrekken aan het internet. In deze pilot wil ik de wereld van de prototypes en de wereld van het onderzoek bijeen brengen.

Wat is het business model?

De prototypes hebben niet als doel door te groeien tot een start-up. De wereld gaat veranderen en er zullen app-achtige toepassingen komen die in de toekomst succesvol zijn, maar waarvoor nu nog de juiste context ontbreekt. Door in dit project geen rekening te houden met de belemmerende factoren van een businessmodel dat aansluit bij de huidige werkelijkheid, kunnen er apps ontstaan die anders zijn dan de bestaande apps die wél bestaansrecht hebben vanwege een kloppend businessmodel.