Als abonnee van de elektronische versie van dit tijdschrift kunt u naast drie rijk gevulde nummers met technische details en actuele softwaretoepassingen sinds 2023 ook drie korte nummers (Flash) lezen die van belang zijn voor mensen met een visuele leesbeperking.
Voor de gesproken abonnementsvorm van dit tijdschrift betalen de lezers een beperkte bijdrage in de productie- en organisatiekosten. De lezers van de elektronische versie krijgen die informatie gratis. En dat blijft zo.
Maar, om dit tijdschrift op termijn levensvatbaar te houden, willen wij alle lezers van de elektronische versie toch oproepen om, via een vrijwillige jaarlijkse bijdrage, de publicatie te steunen.
Als u Infovisie MagaZIEN interessant vindt en een warm hart toedraagt, vragen wij u, om op vrijwillige basis, ons jaarlijks een bedrag (ordegrootte: 10 à 15 euro) over te schrijven. U toont daarmee aan de redactieploeg dat u hun werk waardeert én dat het moet voortgezet worden.
U kunt ons steunen door uw bijdrage over te schrijven op:
IBAN BE23 2300 5087 3991, BIC: GEBABEBB
van Infovisie, Amerikalaan 31/0002, 3000 Leuven (België)
Hartelijk dank
Jan Engelen, Jeroen Baldewijns en het hele redactieteam van Infovisie MagaZIEN
We willen de lezers van Infovisie MagaZIEN erop attent maken dat dit tijdschrift ook in daisy-audioformaat op cd beschikbaar is. Het wordt professioneel voorgelezen en verschijnt quasi-gelijktijdig met de zwartdruk- en de HTML-versie. Als je naar dat formaat wilt omschakelen, kun je ons dat melden.
Wij sturen je graag een proefversie op.
De daisyversie van Infovisie MagaZIEN kan ook via
http://www.anderslezen.be/
gedownload worden. Bovendien hebben we een webbox-versie.
Vraag ernaar!
Als jij of mensen uit jouw kennissenkring Infovisie MagaZIEN elektronisch willen blijven ontvangen, volstaat het om een mailtje te sturen naar koc@vaph.be.
Infovisie
MagaZIEN is ook beschikbaar in een professioneel ingesproken
daisy-audioformaat. Die versie verschijnt bijna gelijktijdig met de
digitale versie.
We bezorgen je graag een proefversie op cd.
Wil je overschakelen naar de gesproken versie? Contacteer dan het
KOC: +32 2 249 34 44,
koc@vaph.be.
De
gesproken versie kan via www.anderslezen.be
gedownload worden en is ook beschikbaar voor de Webbox.
Beste lezer,
Welkom bij dit juninummer waarin het thema artificiële intelligentie (AI) een centrale rol speelt. Dat ga je snel merken aan alle schrijfsels in deze uitgave. Uitzonderlijk bieden we deze keer drie columns. De infofiches gaan alle vier over hulpmiddelen waarin AI een rol speelt en waarvan sommige ook in artikels terugkomen.
Artificiële intelligentie is de rode draad en kun je terugvinden in artikels die over de meest diverse onderwerpen gaan. Om jullie helemaal nieuwsgierig te maken, beperken we ons bewust tot een opsomming van de onderwerpen: onderwijs, voorleesapparaten, apps, schermlezers zoals Jaws en kranten. De AI-assistent Gemini van Google krijgt een afzonderlijke bespreking.
Er is ook een artikel waarin je ‘AI’ niet zult terugvinden. Dat gaat over slimme verlichting en hoe je daarmee kunt starten.
We
wensen je veel leesplezier!
De redactie
Jeroen Baldewijns, Licht en Liefde
We schrijven 1985. Teksten worden nog massaal geschreven op mechanische schrijfmachines. De eerste personal computers werken nog met MS-DOS. Apple toont de weg naar het digitaal bureaublad en de computermuis met de Lisa-computer. De thuisgebruiker wordt verwend met betaalbare ‘Home Computers’ zoals de Commodore 64, de ZX-Spectrum en de Atari … en voor de meeste blinde mensen leek het gebruik van computers nog sciencefiction. En toch stonden veel ontwikkelingen voor blinde en slechtziende mensen al een hele tijd in de steigers.
Zo was er een zekere Raymond Kurzweil, een Amerikaanse computerwetenschapper die onderzoek deed naar software om een ingescande gedrukte tekst te analyseren, om er letters, cijfers en leestekens in te herkennen en om die herkende tekens in een digitaal bestand samen te brengen. Hij bedacht dat zijn software het beste kon toegepast worden als leeshulpmiddel voor blinde mensen. En zo zag in 1976 de eerste ‘Kurzweil Reading Machine’ het levenslicht.
Ook de spraaksynthesizer is zo’n vroege ontwikkeling. In 1962 stelt het Amerikaanse Bell Laboratories de ‘Vocoder’ voor aan de wereld. Het is de eerste elektronische spraaksynthesizer. In 1971 gebruikt het bedrijf Votrax die technologie om spraaktechnologie toe te passen als hulpmiddel voor blinde personen om de tekst op een computerscherm leesbaar te maken.
Vandaag vinden we het met z’n allen doodnormaal dat onze smartphone spreekt en dat hij teksten op foto’s kan voorlezen. Maar bedenk dat we al dat moois te danken hebben aan vele tientallen jaren van research naar hulpmiddelen voor mensen die blind of slechtziend zijn.
En de geschiedenis herhaalt zich. ChatGPT opende amper enkele jaren geleden de deuren naar AI voor het grote publiek. Het werd door velen als een ware revolutie aangevoeld. Maar die revolutie was acht jaren geleden, in 2017, al volop aan de gang! In dat jaar stelde Microsoft met ‘Seeing AI’ namelijk een goed werkende en gratis AI-app voor blinde smartphone-gebruikers beschikbaar! Had iemand in 2017 al ooit van ChatGPT gehoord?
En zo zie je maar … of het nu gaat om tekstherkenning, computerspraak of AI … WIJ zijn de pioniers! En de rest van de wereld mag jaren na datum mee genieten van al dat moois. We willen niet naast onze schoenen gaan lopen, maar voelen stiekem toch iets van fierheid …
jeroen.baldewijns@lichtenliefde.be
Louis Pool, Koninklijke
Visio
Jeroen Baldewijns en Eline De Ganck, Licht en Liefde

Emvi.ai of kortweg EMVI is een app waarmee je een foto maakt, waarna de app beschrijft wat er op de foto staat. Vervolgens kun je de app vragen stellen over de inhoud van de foto. Zo kun je de app gebruiken om teksten te laten voorlezen, de ruimte waarin je je bevindt te beschrijven, een product te omschrijven of je te helpen zoeken als je iets verloren hebt.
EMVI is toegankelijk voor slechtziende mensen die nood hebben aan goede contrasten en duidelijke knoppen en voor blinde mensen die de VoiceOver-schermlezer gebruiken op hun iPhone of TalkBack op hun Androidsmartphone. De app kost in Nederland 4,99 euro per maand of 59,99 euro per jaar en in België vreemd genoeg 49,99 euro per maand of 499 euro per jaar. Hij is dus beschikbaar voor zowel Apple als Android. Het gebruik en de functionaliteit van de app is identiek voor de Apple- en de Android-versies.
De EMVI-app is veelzijdig en biedt een ruim aantal mogelijkheden. We doen een greep uit het ruime aanbod van functies:
Dankzij de EMVI-app heb je snel en eenvoudig toegang tot de informatie die je wilt.
Er zijn intussen heel wat AI-apps voor onze doelgroep beschikbaar: Seeing AI, Envision, Be my Eyes, Piccybot … zijn maar een paar voorbeelden. Maar ook reguliere AI-apps (ChatGPT, Copilot, Gemini …) kunnen zinvol zijn om als hulpmiddel te gebruiken. En dan vragen we ons spontaan af: “Waarom hebben we nog een extra AI-app nodig?”. Een vergelijking dringt zich op.
Wanneer je de app opent en je bent ingelogd, word je eerst welkom geheten door de spraakassistent van de app. Centraal in beeld verschijnt er een grote, ronde, blauwe knop met daarop de afbeelding van een camera. Je bent dan in de fotofunctie terechtgekomen. Onderaan het scherm staat een knoppenbalk met de vier hoofdfuncties. Je selecteert een van die functies niet door op een van de vier knopjes te tikken, maar met korte horizontale veegjes naar links of rechts (om naar de volgende of vorige functie te gaan). Met de VoiceOver-schermlezer op een iPhone gebruik je drie vingers voor die horizontale veegjes; met de TalkBack-schermlezer op een Android-telefoon gebruik je twee vingers. Op die manier maak je een keuze uit de vier functies van de app:
We overlopen die vier functieknoppen en wat je ermee kunt doen.
Wanneer je de fotofunctie activeert, verschijnt het camerabeeld op je scherm en hoor je de spraakassistent aftellen van drie naar een. Het is belangrijk dat je de camera gericht hebt én stil houdt tegen het eind van de aftelling, want meteen daarna wordt er een foto gemaakt. Vervolgens verschijnt de knop van de spraakingavepagina. Er wordt nog niets verteld over de foto, want je moet eerst met een vraag aangeven welke informatie je uit de foto wilt halen. De gesproken feedback zal afhankelijk zijn van hoe jij je vraag formuleert.
Op de spraakingavepagina zie je de ronde knop met daarop een microfoon. Wanneer je die activeert, kun je aan de spraakassistent een vraag stellen over de foto die je gemaakt hebt. Ben je klaar met je vraag, dan moet je nogmaals op die knop drukken. Zo weet de app dat je klaar bent met je vraag te stellen. Het zou handig zijn moest de app zelf detecteren wanneer je klaar bent met je vraag, zoals dat bij Siri of Google Assistent werkt. De spraakassistent spreekt vervolgens vrijwel direct een antwoord uit (het antwoord verschijnt niet op het scherm). De feedback is doorgaans zeer gedetailleerd. Kenmerkend is dat er veel aandacht wordt besteed aan de sfeer die een foto uitstraalt en aan de emoties die te zien zijn bij personen op de foto. De knop met de microfoon blijft op het scherm staan. Zo kun je een vervolgvraag stellen.
Een voorbeeld: je fotografeert een keukenaanrecht en stelt daarna de vrij algemene vraag: “Kun je de foto beschrijven?”. EMVI beschrijft wat er te zien is en vermeldt onder andere dat er drie paprika’s te zien zijn. Daarna stel je de vervolgvraag: “Welke kleur hebben de paprika’s?”. EMVI geeft aan dat er twee rode en een groene paprika op het aanrecht liggen. Vervolgens kun je nog meerdere extra vervolgvragen stellen.
Doordat je zelf een vraag kunt formuleren, kun je de antwoorden van EMVI zelf in de gewenste richting sturen. Een paar voorbeelden van vragen:
We hebben bijvoorbeeld met de laatste vraag ondervonden dat deze app veel betere opties biedt om kleuren aan te geven dan de specifieke kleurdetectie-functies van andere AI-apps of kleurdetectie-apps.
Je kunt overigens ook vragen stellen zonder een foto te nemen. Bijvoorbeeld:
Het interessante aan het conversationele model van de app is dat je naar hartenlust kunt experimenteren met om het even welke vraag die je kunt bedenken. En zo ga je ongetwijfeld nieuwe en mogelijk ook erg nuttige functies ontdekken.
Als je een nieuwe foto wilt maken, dan ga je met horizontale veegjes opzij (met een, twee of drie vingers) tot je bij de fotofunctie bent.
Met de leesfunctie kun je tekst laten voorlezen: tekst van een gedrukt document, tekst van een verpakking, tekst op een lcd-scherm van een toestel … Richt je telefoon op een stuk tekst en druk op de knop van de leesfunctie. Net zoals bij de fotofunctie zal de telefoon aftellen van drie naar een en daarna de foto maken. De tekst op de foto wordt vervolgens direct voorgelezen.
Tijdens het voorlezen verschijnt de spraakingavepagina met de microfoonknop. Die biedt je de mogelijkheid om specifieke vragen te stellen over de voorgelezen tekst, zoals:
EMVI biedt geen hulp bij het blind nemen van een foto (zoals bijvoorbeeld Seeing AI of OneStep Reader, die aangeven wanneer het volledige document in beeld is en dan automatisch de foto nemen). Dat is jammer. Als je vaak documenten leest die je blind fotografeert met EMVI, kunnen we daar twee tips voor geven. Je kunt het artikel “Blind een document fotograferen” op het Kennisportaal eens doornemen. Daarnaast kun je overwegen om een scanstandaard te gebruiken. Die zorgt er altijd voor dat het hele document in beeld is en dat je de camera niet beweegt tijdens het nemen van de foto.

Met de scanfunctie scan je eenvoudig een QR- of streepjescode die naar een website leidt. Nadat je de scanfunctie hebt geactiveerd, richt je de camera op de code. Die wordt direct gescand, waarna EMVI de achterliggende website bekijkt en nuttige informatie uit die website op een begrijpelijke manier verwoordt.
Er zijn twee mogelijkheden:
Na het scannen van de QR- of streepjescode verschijnt de spraakingavepagina, waarmee gesuggereerd wordt dat je nog bijkomende vragen kunt stellen bij de voorgelezen informatie. Maar dat lukte ons niet omdat de app telkens de melding gaf dat er geen foto genomen werd.
Je kunt EMVI ook vragen om een foto uit je fotobibliotheek of uit een app zoals bijvoorbeeld WhatsApp te beschrijven. Ga daarvoor naar de app met de foto die je wilt laten beschrijven. Je selecteert de foto en activeert de knop ‘Delen’ en je kiest vervolgens voor ‘EMVI’. Daarna ga je naar de spraakingavepagina van de EMVI-app, activeer je de microfoon en stel je een vraag over de foto.
De ontwikkelaars van EMVI werken erg hard aan de app. We zullen geregeld nieuwe versies zien verschijnen en er zitten heel wat mooie nieuwe functies in de pipeline. Van een van die toekomstige nieuwigheden mogen we alvast een tipje van de sluier lichten: de PhoneCam.
PhoneCam is een klein (1,5 bij 5 bij 2 cm) cameraatje met een geïntegreerde microfoon dat je aan je kledij bevestigt en dat de beelden doorstuurt naar de gekoppelde smartphone. De makers van EMVI zijn in hun app ondersteuning aan het ontwikkelen voor dat cameraatje.

We hebben al even de kans gehad om een dag rond te lopen met de PhoneCam en mochten ervaren dat die camera de EMVI-app naar een hoger niveau tilt. Je kunt EMVI namelijk gebruiken terwijl je telefoon in je jaszak blijft zitten. Het cameraatje heeft een drukknopje dat je indrukt om een foto te nemen, vervolgens nogmaals indrukt om een vraag te stellen en een derde maal indrukt om de vraag te beëindigen. Vervolgens geeft EMVI de feedback zoals hierboven beschreven. Je kunt vervolgvragen stellen door het knopje nogmaals in te drukken. Als je een nieuwe foto wilt nemen, druk je tweemaal na elkaar op het knopje en kun je heel het bedieningsproces opnieuw doorlopen. We gaan verder niet te veel in op details want deze nieuwigheid is in volle ontwikkeling.
Het was een veelbelovende ervaring en we kijken ernaar uit om dat op de markt te zien komen. Tot slot het goede nieuws: in tegenstelling tot de dure camerabrillen, kost dat toestelletje nog geen 200 euro.
louispool@visio.org
jeroen.baldewijns@lichtenliefde.be
Ruben Brandsma, Koninklijke Visio
Binnen Visio werd een speciaal AI-team opgericht dat zich richt op de inzet van AI in het onderwijs. In dat team zijn alle doelgroepen, scholen en ook de ambulante begeleiding vertegenwoordigd. Vanuit dat brede perspectief werken we vanuit een gezamenlijke visie en zien we drie componenten van AI binnen het onderwijs van cluster 1:
Om op een zinvolle manier aan de slag te gaan met AI heb je een duidelijke richting en kaders nodig over AI. Een Visie! Naar aanleiding van gesprekken en interactieve sessies worden hier een aantal punten centraal gezet.
Voor leerlingen kan AI een waardevol hulpmiddel zijn om de informatie en de wereld om hen heen toegankelijker te maken. Denk daarbij aan spraakgestuurde systemen, automatische tekstomzetting of beeldbeschrijving. Maar AI is geen doel op zich. Het is een middel dat zorgvuldig gekozen en toegepast moet worden om zelfstandig leren en toegankelijk onderwijs te ondersteunen. Maak daarom altijd een bewuste keuze: wanneer draagt AI écht bij en wanneer kiezen we juist voor andere vormen van leren? Daarbij blijft er altijd aandacht voor fysieke en tactiele aspecten van het onderwijs, zodat we een gebalanceerd en gevarieerd leerlandschap blijven bieden.
Om AI goed te kunnen gebruiken, moet je begrijpen hoe het werkt. Hoe nemen AI-systemen beslissingen? Op welke data zijn ze gebaseerd? En wat zijn de ethische afwegingen die meespelen? AI-geletterdheid is daarom belangrijk voor iedereen – voor leerlingen én voor leraren. Want als je niet begrijpt hoe een AI-systeem werkt of er niet mee kunt omgaan, heb je er ook weinig aan. Dat vergroot de verschillen tussen mensen die vaardig zijn met AI en mensen die dat niet zijn – iets wat we juist willen voorkomen.
De kracht van AI zit in de manier waarop het wordt ingezet. Het is belangrijk om kritisch te blijven nadenken over wanneer AI iets toevoegt en wanneer niet. Niet elk moment is geschikt en niet elke toepassing is waardevol. Door AI op de juiste momenten en op de juiste manier in te zetten, kan het een krachtige versterker zijn bij het leren. Maar dat lukt alleen als we zorgvuldig afwegen waar AI past binnen het leerproces en waar menselijke interactie of andere werkvormen beter tot hun recht komen.
Voordat je naar de specifieke personen die aan de slag gaan met AI, kunt gaan kijken, is het belangrijk om naar AI in de context van digitale geletterdheid te kijken. Het gebruiken van AI kun je niet los zien van de digitale geletterdheid van de gebruiker. De Nederlandse minister van onderwijs bestempelt digitale geletterdheid ook als een van de vier basisvaardigheden naast rekenen, taal en burgerschap.
Je digitale vaardigheden bepalen in toenemende mate hoe zelfstandig je kunt functioneren in de maatschappij. Wie er niet vaardig in is – of helemaal niet weet hoe digitale systemen werken – loopt al snel vast. Van het boeken van een treinticket tot het doen van belastingaangifte of simpelweg informatie opzoeken op internet: zonder die basis wordt deelname aan het dagelijks leven lastig. AI is daarbij geen uitzondering. Om AI goed te kunnen gebruiken, moet je een computer kunnen bedienen en begrijpen hoe software werkt. Die basisvaardigheden zijn dus onmisbaar om überhaupt met AI aan de slag te kunnen.
Informatievaardigheden helpen je om de juiste vragen te stellen, informatie te zoeken én die kritisch te beoordelen. Dat is bij AI extra belangrijk, omdat AI-systemen niet altijd het juiste antwoord geven. Ze kunnen verouderde of foutieve informatie opleveren of geen bronvermelding geven. Door goede informatievaardigheden leer je de vragen zo te formuleren dat je gerichte en bruikbare antwoorden krijgt én kun je vervolgens beoordelen of de informatie klopt, relevant en betrouwbaar is.
Mediawijsheid gaat over je relatie met de digitale wereld. Hoe gebruik je technologie op een bewuste manier? Hoe herken je de invloed van sociale media of online content op jouw gedrag? Die vragen zijn ook van toepassing op het gebruik van AI. Het gaat niet alleen om wát je ermee doet, maar ook om wannéér je het inzet en wat een gezonde balans is. Wanneer gebruik je AI als hulpmiddel en wanneer kies je ervoor om zelf na te denken of in gesprek te gaan met een ander?
Tot slot is er ‘computational thinking’ – of, zoals ik het mijn leerlingen in groep 3 en 4 uitleg: ‘denken als een computer’. Daarbij leer je hoe je grote problemen kunt opdelen in kleinere stappen, hoe je logisch nadenkt en oplossingen systematisch aanpakt. Die manier van denken helpt je ook bij het werken met AI. Door helder te formuleren wat je wilt weten of bereiken, kun je AI beter ‘aansturen’. Goed ‘prompten’ is namelijk niets anders dan logisch, doelgericht en duidelijk communiceren met een systeem.
In Nederland zijn we op dit moment ook bezig met het herzien van alle vakken waaronder Digitale Geletterdheid. In de nieuwe kerndoelen is ook AI opgenomen waardoor alle leerlingen in het onderwijs iets met AI zullen doen. De mate waarin en hoe dat verder ontwikkeld wordt, hangt vooral af van de mogelijkheden en expertise op de scholen zelf. Daarnaast staan er natuurlijk ook vele aanbieders te springen om daarvoor methodes te ontwikkelen. Hoewel de kerndoelen over de leerlingen gaan, is het ook belangrijk om de digitale geletterdheid van de docent niet te vergeten. Als de docent die vaardigheden niet bezit, zal het erg lastig worden om die over te brengen en zal ook de basis ontbreken om op een effectieve manier aan de slag te gaan met AI.

Voor leraren biedt AI ontzettend veel mogelijkheden. Tegelijkertijd horen we ook dat veel docenten nog nauwelijks ervaring hebben met het werken met AI in de praktijk. De technologie is volop in ontwikkeling en de toepassingen nemen snel toe, maar het vraagt wel om een bewuste en kritische inzet.
Een eerste gebied waar AI veel kan betekenen, is het verlichten van de werkdruk bij administratieve taken. Denk aan het maken van roosters, het indelen van groepjes of het aanpassen van documenten. Dat kan veel tijd besparen, mits je het goed aanpakt. Als je AI verkeerd inzet, kost het je juist meer tijd – bijvoorbeeld doordat je de output moet verbeteren of navragen. Zo is het plannen van een reeks vergaderingen nog lastig voor AI: het systeem raakt soms in de war met datums en dagen.

Daarnaast biedt AI kansen om onderwijs op maat te ontwikkelen. Denk aan het genereren van Engelse verhalen, afgestemd op de woorden die een leerling nog lastig vindt, maar binnen een thema dat die leerling leuk vindt. Ook voor het bedenken van interactieve lesvormen of het ontwikkelen van creatieve ideeën voor in de klas is AI een handige sparringpartner. Je kunt het bovendien goed inzetten als coach: om samen na te denken over lesopbouw, om alternatieven te verkennen of teksten te verbeteren.
Een ander sterk punt is het opstellen van oefentoetsen en toetsvragen. Je kunt de moeilijkheidsgraad instellen en het type vragen kiezen, zoals open vragen of meerkeuzevragen. Voor oefentoetsen werkt dat uitstekend. Bij echte toetsen blijft het verstandig om zelf verantwoordelijk te blijven voor de inhoud en formulering.
Bij al die toepassingen is het belangrijk om na te denken over de mate van controle die je als docent aan AI geeft. Het model van NOLAI biedt daar inzicht in: aan de ene kant zie je de volledig autonome docent die alles zelf doet, aan de andere kant de situatie waarin AI alles bepaalt. Daartussen liggen allerlei vormen van samenwerking. Als docent bepaal je zelf waar je op die lijn staat. Maar wat je ook kiest: blijf kritisch op de output. Jij bent en blijft verantwoordelijk voor wat je leerlingen te zien krijgen.
Voor leerlingen biedt AI veel mogelijkheden, maar de kennis over hoe je het op de beste manier inzet, is vaak nog beperkt. In de praktijk zien we dat AI vooral gebruikt wordt om hele verslagen te schrijven – zonder dat duidelijk is wat de leerling daarvan leert. Terwijl AI juist kansen biedt om de zelfstandigheid te vergroten. Het maakt kennis sneller en gemakkelijker toegankelijk en biedt leerlingen de vrijheid om zelf te kiezen hoe ze informatie willen ontvangen: via tekst, spraak of beeld. Die keuzevrijheid draagt bij aan een inclusiever leerproces.
Toch blijft het belangrijk dat leerlingen zelf actief blijven leren. Wanneer AI alles voor je doet, ontwikkel je minder vaardigheden en mis je leerervaring. Daarom is het van belang dat AI een hulpmiddel is, en geen vervanging van het leerproces. Wat AI wel verandert, is de manier waarop je met informatie omgaat. In plaats van eindeloos zoeken op lange en soms ontoegankelijke websites, biedt AI een directe, één-op-één-interactie via een overzichtelijke interface. Je kiest daarbij zelf hoe je communiceert: door te typen of juist door te praten.
Leerlingen kunnen bovendien zelf aan de slag met eigen ‘prompts en agents’. Dat betekent dat ze AI kunnen instrueren om specifieke taken uit te voeren die zij zelf nodig vinden. Door die vaardigheden aan te leren, vergroot je de zelfstandigheid én de onafhankelijkheid van de leerlingen. Mits ze de juiste vaardigheden hebben, natuurlijk. In de toekomst kunnen leerlingen mogelijk zelf ontoegankelijke documenten laten aanpassen en omzetten naar een vorm die voor hen werkt. Waar ze nu nog afhankelijk zijn van aangepast lesmateriaal, verwacht ik dat zij straks zélf de controle krijgen over het toegankelijk maken van informatie.
AI biedt veel kansen om het onderwijs toegankelijker te maken. Al jarenlang roepen we dat informatie vanaf de bron toegankelijk moet zijn, maar in de praktijk lopen we daar vaak achteraan. De werkelijkheid is dat veel materialen nog altijd niet voor iedereen bruikbaar zijn. Met de komst van AI verandert dat. AI maakt het mogelijk om informatie snel aan te passen naar een vorm die past bij de gebruiker. Denk bijvoorbeeld aan het omzetten van een afbeelding met tekst naar digitale, leesbare tekst. Ook het automatisch genereren van beeldbeschrijvingen of het voorlezen van onbereikbare visuele elementen – zoals het bord met vertrektijden op het station – komt ineens binnen handbereik.
Daarnaast verandert AI ook de manier waarop we met het internet omgaan. Je hoeft niet meer eindeloos ontoegankelijke websites door te ploegen. In plaats daarvan stel je een vraag aan een AI en krijg je direct een antwoord, in een vorm die bij jou past. Dat bespaart niet alleen tijd, maar voorkomt ook veel frustratie. Voor mensen met een visuele beperking is dat een enorme stap richting zelfstandigheid en gelijkwaardigheid in het onderwijs en daarbuiten.
Een van de grootste risico’s van AI is dat het niet altijd objectief of neutraal is. AI-systemen worden getraind op grote hoeveelheden data en die data bevatten vaak onbewuste vooroordelen. Daardoor kan AI fouten maken of bepaalde groepen op een bevooroordeelde manier in beeld brengen.
Daarnaast is AI lang niet altijd even betrouwbaar. AI geeft niet alleen correcte antwoorden – het kan ook dingen verzinnen of verwarren. Een systeem dat je vraagt om toetsvragen te maken, kan per ongeluk verkeerde informatie gebruiken of kromme vragen opleveren. En een chatbot die ‘deskundig’ lijkt, kan misleidende antwoorden geven als je niet goed weet waar je op moet letten. Daarom blijft menselijke controle essentieel: AI is een hulpmiddel, geen waarheidsmachine.
Om goed te kunnen functioneren, verwerken veel AI-systemen gegevens. In het onderwijs betekent dat vaak: leerlinggegevens. Wie toegang heeft tot die data en wat ermee gebeurt, is niet altijd transparant. Dat is zorgelijk, want die informatie is vaak gevoelig en persoonlijk. We moeten voorkomen dat leerdata worden gebruikt voor andere doeleinden dan waarvoor ze bedoeld zijn – en dat geldt ook voor commerciële tools die gratis lijken, maar in ruil daarvoor data verzamelen.
Daarom is het belangrijk dat scholen en onderwijsinstellingen duidelijke keuzes maken over welke AI-toepassingen ze wel of niet gebruiken. En vooral: dat er goed wordt nagedacht over eigenaarschap van data. Wie is er verantwoordelijk? Wie mag er mee kijken? En hoe zorgen we dat we binnen de wet blijven én recht doen aan de privacy van de leerling? Dat vraagt om duidelijke kaders, afspraken en transparantie richting alle betrokkenen.
Een ander risico is dat we te afhankelijk worden van AI. Als je AI altijd inzet om dingen voor je op te lossen, loop je het risico dat leerlingen (of docenten) minder zelf nadenken. Zeker als AI wordt gebruikt voor het schrijven van teksten, het maken van samenvattingen of het bedenken van ideeën, kan dat ten koste gaan van het eigen leerproces. Leren kost nu eenmaal tijd, en als AI die stappen overslaat, mis je ook belangrijke vaardigheden zoals analyseren, kritisch denken en creatief oplossen.
Daarnaast kan AI het onderwijs onbedoeld versimpelen. Het maakt informatie toegankelijker, maar het filtert en vat ook samen – en daarmee gaan soms nuances verloren. Als leerlingen alleen nog met hapklare brokken werken, leren ze minder goed omgaan met complexiteit. Terwijl juist dát belangrijk is in een wereld vol informatie en meningen. AI kan ondersteunen, maar mag niet de enige route naar kennis worden.
De beste manier om AI te verkennen, is door gewoon te beginnen. Kies één toepassing of tool en ga daarmee aan de slag. Er is geen vaste route – leren werken met AI vraagt om experimenteren en reflecteren. Blijf daarbij altijd kritisch: niet alleen op wat je uit AI krijgt, maar ook op wat je erin stopt. De kwaliteit van de output is vaak net zo goed als de vraag of opdracht die jij geeft. Oftewel: je prompt bepaalt voor een groot deel het resultaat.
Wees ook eerlijk en transparant over wanneer je AI gebruikt. Niet alleen richting collega’s, maar zeker ook richting leerlingen. Ga het gesprek aan. AI is niet alleen een technische ontwikkeling, maar verandert ook de manier waarop we werken, leren en met elkaar omgaan. Daarom moeten we daar met elkaar over blijven praten.
Als onderwijs hebben we de verantwoordelijkheid om leerlingen voor te bereiden op de wereld van morgen. En die wereld, daar ben ik van overtuigd, zal in belangrijke mate gevormd worden door AI.
Louis Pool, Koninklijke Visio

Voor mensen die slechtziend of blind zijn, zijn er inmiddels veel manieren om teksten zoals brieven, menukaarten of een flyer te laten voorlezen. Je kunt daar een voorleesapparaat voor gebruiken, maar ook een app op je telefoon en er zijn zelfs brillen die kunnen scannen.
Wie meer wil dan een klassiek voorleesapparaat dat thuis brieven voorleest, maar een smartphone te ingewikkeld vindt, kan aan de VoxiVision een mooi alternatief hebben. Met dit compacte en mobiele voorleesapparaat, ongeveer zo groot als een smartphone, kun je niet alleen brieven laten voorlezen, maar ook op eenvoudige wijze meerdere pagina’s achter elkaar scannen en laten voorlezen uit bijvoorbeeld een boek.
Heeft de tekst een complexere lay-out, zoals een tijdschrift of krant? Dan geeft de AI-functie van VoxiVision eerst een samenvatting van de inhoud. Vervolgens kun je gerichte vragen stellen over wat je net hebt gehoord. Daarnaast kan het apparaat ook beelden beschrijven en producten herkennen via het scannen van barcodes. VoxiVision maakt voor al die functies gebruik van internet via wifi of een hotspot.
VoxiVision is eenvoudig te bedienen met drie knoppen op een vaste locatie op het scherm. Voor wie het bedienen van apparaten lastig vindt, kan dat zelfs nog vereenvoudigd worden naar een enkele knop. Ook kan het apparaat automatisch een foto maken en is het mogelijk om het apparaat met je stem te bedienen.
VoxiVision is ontwikkeld voor mensen met een visuele beperking. Het apparaat is blind te bedienen en heeft daarnaast voor slechtziende mensen nog een extra vergrootglasfunctie.
Hoe werkt VoxiVision precies en voor wie is hij geschikt? Wij zochten het voor je uit.
De VoxiVision is in feite een aangepaste smartphone met één gebruiksvriendelijke app. Over het scherm zit een afdekplaatje met aan de onderkant drie ronde openingen zo groot als je vingertop, zodat je de drie knoppen gemakkelijk op de tast kunt vinden. Aan de zijkant van het apparaat vind je twee volumeknoppen, met daaronder de aan-uitknop. Die knop kun je ook gebruiken om spraakopdrachten te geven.
Op de achterkant van het apparaat zit een camera waarmee documenten, objecten of barcodes gescand kunnen worden. Voor het geluid maakt de VoxiVision gebruik van de ingebouwde speaker, maar je kunt ook een koptelefoon of oordopjes aansluiten. Dat kan draadloos via bluetooth of bedraad via een USB-C-verloopstukje.
Er wordt een standaard meegeleverd waarin je de VoxiVision kunt plaatsen. Die zorgt voor de juiste afstand tot het papier om een goede foto te maken. Dankzij een ingebouwde magneet staat het apparaat stevig vast in de houder. Wanneer je de VoxiVision in de standaard hebt geplaatst, wordt automatisch een foto gemaakt. Je hoeft dat dus niet zelf te doen.
Tot slot wordt er een losse draadloze microfoon meegeleverd die voorzien is van een knop. Door de knop in te drukken, kun je vragen stellen over de gescande tekst of een spraakopdracht geven. De microfoon plus knop zijn ongeveer 15 centimeter groot en liggen prettig in de hand. Meer daarover lees je verderop.
VoxiVision kent vijf verschillende functies die je met de drie knoppen kunt kiezen. Je gebruikt de drie knoppen op het scherm om een functie te kiezen en je keuze te bevestigen. Die keuze is te zien op het scherm en wordt ook uitgesproken.
Met de VoxiVision kun je op verschillende manieren teksten lezen. Gebruik je de zogenaamde leesmachine-functie, dan richt je de camera op een tekst en druk je op de cameraknop. Er wordt dan een foto gemaakt, waarna de tekst automatisch van begin tot eind wordt voorgelezen.
Een handige toevoeging is de meegeleverde standaard. Zodra je de VoxiVision in de standaard plaatst, herkent het apparaat dat en schakelt de automatische leesfunctie in. Leg je vervolgens een tekst onder het apparaat, dan wordt er direct een foto gemaakt en begint het voorlezen vanzelf. De standaard is geoptimaliseerd voor het maken van een goede scan vanaf een A4’tje.
Naast het maken van een enkele foto is er ook een functie om meerdere pagina’s achter elkaar te scannen. Je stelt vooraf in om de hoeveel seconden er een foto moet worden genomen. Daarvoor moet de VoxiVision wel in de standaard geplaatst zijn. De pagina’s worden op het apparaat opgeslagen, zodat je ze op een later moment weer kunt beluisteren.
De AI-beeldbeschrijving is een functie waarmee de VoxiVision nauwkeurig beschrijft wat er op een gemaakte foto te zien is. Je kunt kiezen voor een korte beschrijving, een lange beschrijving of een samenvatting van een document. Bij de samenvattingsfunctie geeft de VoxiVision een overzicht van wat er op de pagina staat. Als de pagina uit meerdere onderdelen met tekst bestaat, zoals bij tijdschriften, dan benoemt de VoxiVision dat. Ook afbeeldingen op de pagina worden duidelijk omschreven.
VoxiVision kan na een scan bijvoorbeeld zeggen: “Rechts onderin staat een artikel over sprinkhanen, in het midden een foto van een sprinkhaan en bovenin een artikel over vogels.”
Vervolgens kun je met je stem vragen stellen aan de VoxiVision over wat je zojuist hebt gehoord. Dat kan met de meegeleverde microfoon of door kort op de aan-uitknop op het apparaat te drukken. Zo kun je in het voorbeeld van een pagina uit een tijdschrift informatie opvragen over de tekst die op de pagina staat. Denk bijvoorbeeld aan vragen over specifieke artikelen op de pagina of een verzoek om een bepaald stuk tekst helemaal voor te lezen.
Let op: foto's die je maakt met de AI-beeldbeschrijving worden tijdelijk opgeslagen op een externe server. Om privacy redenen is het verstandig om geen gevoelige informatie te fotograferen, zoals rekeningnummers, facturen of persoonsgegevens. Houd er ook rekening mee dat de AI-functie aanvullende informatie kan geven op basis van gegevens van het internet in plaats vanuit jouw scan. Het is niet gezegd dat die informatie ook 100% correct is.
Met de scannerfunctie kun je barcodes en bankbiljetten herkennen. Richt de VoxiVision op een barcode of biljet en de informatie wordt direct uitgesproken.
Bij barcodes krijg je productinformatie te horen. Opvallend is hoeveel barcodes het systeem herkent en hoeveel details er per product worden gegeven. Scan je een bankbiljet, dan wordt het bedrag meteen uitgesproken.
Met de vergrootglasfunctie maak je een foto van bijvoorbeeld een tekst waarna je die kunt vergroten. Voor een betere leesbaarheid kun je de kleuren aanpassen of het beeld instellen op zwart-wit.
De VoxiVision beschikt over een virtuele assistent waarmee je met je stem opdrachten kunt geven of vragen kunt stellen – vergelijkbaar met Siri of Google Assistant.
Je activeert die functie met de knop op het apparaat zelf of via de microfoonknop op de afstandsbediening. Met spraakcommando’s kun je de VoxiVision deels bedienen. Zo kun je na het maken van een foto met de AI-beeldbeschrijving extra informatie opvragen over een document. Ook kun je vragen stellen over bijvoorbeeld de tijd of het batterijpercentage.
De VoxiVision kan worden ingesteld op basismodus. De basismodus is bedoeld voor mensen die de volledige bediening wat ingewikkeld vinden, of die simpelweg niet alle functies nodig hebben. In die modus heb je nog altijd toegang tot de vijf functies.
In de basismodus is het menu vereenvoudigd: je wisselt met één knop tussen de functies en maakt met een andere knop een foto. Je hoeft daardoor niet meer door menu’s te navigeren.
Wil je bepaalde functies helemaal niet gebruiken? Dan kun je ervoor kiezen om in het instellingenmenu die onderdelen volledig uit te schakelen. Dat kan zowel in de basismodus als in de normale modus. Zo blijft de VoxiVision precies zo overzichtelijk als jij nodig hebt.
VoxiVision wordt in Nederland geleverd door Low Vision Totaal en in België door Sensotec. De Franse ontwikkelaar is Voxiweb.
Met de VoxiVision kun je op veel verschillende manieren een tekst laten voorlezen. Dat kan gaan om een losse pagina of meerdere pagina’s achter elkaar. Je kunt een samenvatting krijgen van een tekst en er zelfs meerdere vragen over stellen.
Daarnaast kan hij een foto maken en die vergroten of in een ander contrast weergeven. Voor het lezen van informatie op een product kun je een streepjescode scannen. Dat gaat gemakkelijk en het is opvallend hoeveel streepjescodes het apparaat herkent.
Een handige toevoeging is de meegeleverde standaard waar je de VoxiVision in kunt leggen. Die standaard zorgt voor de juiste afstand tot een A4’tje, waardoor het apparaat automatisch en nauwkeurig een foto kan maken.
Een nadeel is dat de VoxiVision geen 4G- of 5G-verbinding ondersteunt. Voor internettoegang ben je buitenshuis dus altijd afhankelijk van wifi of een mobiele hotspot.
Al met al is de VoxiVision een interessant voorleesapparaat dat net andere functies en mogelijkheden biedt dan andere voorleesapparaten.
Eline De Ganck en Jeroen Baldewijns, Licht en Liefde
Je merkt het duidelijk in dit nummer van Infovisie MagaZIEN: artificiële intelligentie is overal! Het zou dan ook verbazing wekken mocht AI niet opduiken in schermlezers voor gesproken en brailleweergave. In dit artikel bekijken we hoe AI ook in twee veel gebruikte schermlezers zijn opwachting maakt.

VoiceOver, de bekende schermlezer voor de iPhone en de iPad bedient zich al geruime tijd van artificiële intelligentie. Enerzijds is er de VoiceOver-herkenning, die de schermlezer helpt om ontoegankelijke elementen in het schermbeeld toch toegankelijk te maken. En sinds iOS 18 is daar ook nog eens ‘Live herkenning’ bijgekomen. We overlopen beide functies en geven aan wat die voor jou kunnen betekenen.
Van de maker van een app verwachten we dat hij alle spelregels voor het bouwen van toegankelijke apps toepast. Je krijgt dan als VoiceOver-gebruiker duidelijke info over alle onderdelen op het scherm, je kunt al die onderdelen ook goed bereiken en bedienen met de VoiceOver-gebaren. En als het even meezit, kun je ook nog vlot navigeren op koppen.
Maar we weten allemaal dat nogal wat app-bouwers weinig tot geen rekening houden met die toegankelijkheidsvereisten. En dan kunnen apps wel eens lastig bruikbaar worden. En dat is precies waar VoiceOver-herkenning te hulp schiet, door AI te gebruiken om ontoegankelijke onderdelen te analyseren en er toch zinvolle informatie over te geven. Het is bijzonder zinvol dat VoiceOver dat doet, maar het mag voor de ontwikkelaars van apps natuurlijk geen excuus zijn om geen rekening meer te houden met de toegankelijkheidsnormen.
De mogelijkheden van VoiceOver-herkenning kun je activeren via Instellingen > Toegankelijkheid > VoiceOver > VoiceOver-herkenning. Je vindt er volgende instellingen:
In het begin van de corona-tijd is Apple persoonsherkenning gaan toevoegen aan de Vergrootglas-app. De bedoeling was om personen in het camerabeeld te herkennen en aan te geven of de veiligheidsafstand gerespecteerd werd. In de daaropvolgende jaren zijn daar almaar meer herkenningsfuncties voor het camerabeeld bijgekomen, zoals herkenning van deuren of meubilair. We hebben het altijd vreemd gevonden dat die functies een plaatsje kregen in het Vergrootglas. Maar sinds iOS 18 werden al die mogelijkheden ook geïntegreerd in VoiceOver, wat ons een logische evolutie lijkt. Daardoor kun je zes herkenningsfuncties activeren vanuit VoiceOver:

Bij
Instellingen > Toegankelijkheid > VoiceOver >
VoiceOver-herkenning > Live herkenning kun je aanvinken welke van
die herkenningsfuncties je binnen VoiceOver ter beschikking wilt
hebben. Zodra je dat hebt ingesteld, kun je die functie activeren
door driemaal te tikken met vier vingers, waarna de camera
geactiveerd wordt en je auditieve en tactiele feedback krijgt bij
dat camerabeeld. Vervolgens kun je met horizontale veegjes kiezen
welke herkenningsfunctie je wilt gebruiken en richt je de camera op
de tekst of omgeving die je wilt laten herkennen.
Je kunt Live
herkenning ook met de rotor oproepen en vervolgens met horizontale
veegjes een herkenningsfunctie kiezen als je dat handiger vindt.
Daarmee wil Apple direct vanuit VoiceOver (zonder dat je een AI-app moet starten) een alternatief bieden voor apps zoals Seeing AI, EMVI of Envision. Maar naar ons aanvoelen is die live herkenning van VoiceOver toch nog niet zo geavanceerd als de genoemde AI-apps.

Midden 2024 werd ‘Picture Smart’ aangekondigd als nieuwe feature van Jaws en Fusion. Zo deed AI ook in Jaws zijn intrede. We belichten even drie AI-functies:
Bij het werken met de computer, staan er vaak heel wat visuele elementen op het scherm, zoals afbeeldingen, tabellen, diagrammen. Nog veel te vaak hebben die geen of te beperkte tekstalternatieven, waardoor het heel moeilijk is om in te schatten welke info er juist te vinden is. Met Picture Smart is het nu mogelijk om een visueel element te analyseren en er een gedetailleerde beschrijving van te krijgen. Zo worden elementen als foto’s, ingewikkelde diagrammen, tabellen … toch weer een stuk toegankelijker.
Als de beschrijving nog niet voldoende info oplevert, dan is het met die functie zelfs mogelijk om aanvullende vragen te stellen om alsnog goed geïnformeerd te worden.
Enkele sneltoetsen om Picture Smart te bedienen:
FS
Companion is een AI-hulpmiddel om beter te leren werken met Jaws en
met de Microsoft-apps. Door de vele sneltoetsen en functies in Jaws,
Windows en de Office-apps is het soms moeilijk om je de juiste
sneltoets te herinneren of om als nieuwe gebruiker met een programma
aan de slag te gaan.
‘FS Companion’,
de nieuwe AI-assistent van Jaws, biedt de mogelijkheid om vragen te
stellen over Fusion, Jaws en andere toepassingen,
zodat je snel weer verder kunt werken zonder veel tijd te verliezen
aan opzoekwerk.
Een paar voorbeelden van vragen die je kunt stellen:
Om FS Companion te starten:
Een vraag stellen aan FS Companion doe je met de sneltoets ALT + SHIFT + D. Om je vraag af te sluiten gebruik je opnieuw ALT + SHIFT + D.
Gebruikers die documenten of webpagina's in verschillende talen lezen, zullen merken dat auteurs van die content vaak niet de juiste taaltags gebruiken. Maar Jaws heeft die tags nodig om de spraakweergave om te schakelen naar de juiste stem voor een specifieke taal.
Daarom zal Jaws, op basis van AI, automatisch de taal van een document detecteren en de stem switchen naar de juiste taal. De functie draait volledig op jouw computer en vereist geen verbinding met internet. Om die optie in te schakelen, open je het ‘Instellingencentrum’, vouw je de groep ‘Tekstverwerking’ uit, vouw je vervolgens de subgroep ‘Taalverwerking’ uit. Nu activeer je ‘Taal detecteren’ om door de beschikbare opties te bladeren en kies je ‘Gebaseerd op AI-voorspellingen’.
Als je merkt dat Jaws niet automatisch van taal wisselt in een toepassing, zelfs niet wanneer de juiste stem is geïnstalleerd, open dan het ‘Instellingencentrum’ terwijl je je in de specifieke app bevindt en vink de optie ‘Taal detecteren’ aan. Die instelling is standaard uitgeschakeld voor bepaalde apps.
Extra
info:
Bekijk voor een korte introductie tot ‘Beeldbeschrijving
AI’ de video op YouTube (Engelstalig):
https://www.youtube.com/watch?v=_RVFPwewBt8
Het is goed dat AI een boost geeft aan de mogelijkheden van een schermlezer. En we verwachten dat de AI-invloed in schermlezers nog zal toenemen. Maar zoals gezegd: dat mag voor ontwikkelaars van apps, bouwers van websites en auteurs van documenten geen vrijgeleide zijn om geen aandacht meer te besteden aan toegankelijkheid!
eline.de.ganck@lichtenliefde.be
jeroen.baldewijns@lichtenliefde.be
Christiaan Pinkster, Koninklijke Visio
Wetenschappers van de universiteit van Cambridge hebben een robotarm ontwikkeld die tot twee keer sneller braille leest dan de menselijke braillelezer.
Met een snelheid van 315 woorden per minuut racet de robot glijdend over de braillecellen. Een knap staaltje werk aangestuurd met gevoelige sensoren en artificial intelligence. De robot bootst de glijdende leesbeweging van de menselijke vinger na.
Braille kan op die manier eenvoudig en snel worden omgezet in tekst of spraak. Dat is natuurlijk ontzettend handig voor …… voor …… tsja …… voor wat eigenlijk?

Afbeelding: robotarm leest braille op een kleine leesregel
De wetenschappers waren niet op zoek naar een nieuw hulpmiddel voor blinde en slechtziende mensen. Het onderzoek was er vooral op gericht om de gevoeligheid van de vingertoppen na te kunnen bootsen. Het lezen van braille was dus vooral de uitdaging omdat het een zeer vingergevoelige activiteit is. Je kunt je voorstellen dat die technologie gebruikt kan worden bij de ontwikkeling van kunstmatige handen met menselijke gevoeligheid.
Behalve dat je met je handprothese een eitje uit de koelkast kunt pakken zonder dat het breekt, kun je braille lezen zonder daar ooit voor geleerd te hebben.
Wat mij betreft een TOP onderzoek!
Christiaan
Jeroen Baldewijns en Eline De Ganck, Licht en Liefde
Je kunt deze dagen geen krant meer openslaan of je botst wel ergens op het toverwoord ‘artificiële intelligentie’. ChatGPT kennen we (al dan niet van ‘horen zeggen’) inmiddels allemaal wel en ook Microsofts Copilot zal bij de meesten wel een belletje doen rinkelen. Maar wie al ooit iets aan zo’n AI-chatbot gevraagd heeft, zal ongetwijfeld ondervonden hebben dat de resultaten lang niet altijd correct zijn.
Maar
er zijn ook heel wat apps die AI toepassen om heel specifieke
diensten aan te bieden. Zo ook apps die bedoeld zijn als hulpmiddel
voor wie niet of niet goed ziet. Seeing AI van Microsoft was een van
de eerste apps in dat genre, maar inmiddels zijn dergelijke apps niet
meer op een hand te tellen.
In dit artikel komen we met de
vingers van onze twee handen nog net toe om de mooiste AI-apps in het
zonnetje te zetten. Elk van die apps stelt zich tot doel om de
visuele wereld rondom ons te beschrijven voor wie die niet (goed) kan
zien.

Microsoft gooide in 2017 een knuppel in het hoenderhok door als eerste AI toe te passen in de Seeing AI-app voor onze doelgroep. Die app was zijn tijd ver vooruit en verbaasde vriend en vijand over de mogelijkheden van AI. En vandaag is die technologie mainstream en kijkt niemand nog op van artificiële intelligentie.
Met de
app kun je tekst laten herkennen en voorlezen, productinformatie
opvragen op basis van de streepjescode op de verpakking, de omgeving
laten beschrijven op basis van een foto die je neemt met de camera
(of van een foto of zelfs een filmpje uit je fotobibliotheek), een
verloren gelegd object zoeken, personen in het camerabeeld laten
detecteren en beschrijven en die personen met naam opslaan, valuta
laten herkennen (keuze uit 17 munteenheden), licht laten detecteren
en kleuren laten herkennen.
Indrukwekkend is dat je ook de
omgeving in 3D kunt laten scannen door de LiDAR-scanner van een
iPhone Pro. De herkenning van objecten kan dan nauwkeuriger gebeuren
dan bij een 2D-camerabeeld. Als extraatje kun je Seeing AI dan ook
aanwijzingen laten geven om naar een bepaald object (zoals een deur)
toe te stappen.
We zetten onze belangrijkste testbevindingen met Seeing AI op een rijtje:
Seeing AI is nog altijd gratis beschikbaar voor iOS en Android.

EMVI
is een van de recentere AI-apps. Het mooie van de app is dat hij
werkt volgens een ‘conversationeel’ principe. Dat wil zeggen dat
je informatie kunt opvragen door vragen of opdrachten in te spreken
in de app.
Een gedetailleerd testverslag lees je elders in dit
nummer.

Envision is een directe concurrent van Seeing AI met een in hoge mate vergelijkbare functionaliteit.
Met Envision kun je tekst laten herkennen en voorlezen, productinformatie opvragen op basis van de streepjescode, je smartphone als labelpen gebruiken op basis van QR-codes, de omgeving laten beschrijven op basis van een foto die je neemt met de camera (of van een foto uit de fotorol), een welbepaald object laten zoeken in de omgeving, personen in het camerabeeld laten detecteren en die personen met naam opslaan, kleuren laten herkennen.
We zetten onze belangrijkste testbevindingen met Envision op een rijtje:
We moeten wel even aanstippen dat identieke functies soms verschillend benoemd worden in de iOS- en in de Android-app. Het kan dus voorkomen dat we een functie benoemd hebben die in jouw app een andere naam heeft.
Voor de Envision-app is ook een slimme bril te krijgen die de functies van de smartphone-camera en -speaker overneemt, zodat je handenvrij kunt werken. Sinds enige tijd is de app, die zowel voor Android als voor iOS aangeboden wordt, gratis op te halen in de Google Play Store en de Apple App Store. Bovendien is er ook een versie van de Envision-app beschikbaar voor de BlindShell-telefoon.

Google wou niet achterblijven en ontwikkelde ook een AI-app voor blinde en slechtziende Android-gebruikers.
Met Lookout kun je tekst laten herkennen en voorlezen, productinformatie opvragen op basis van de streepjescode, objecten in je omgeving laten herkennen, valuta laten herkennen (keuze uit drie munteenheden), een foto laten beschrijven en kleuren laten herkennen. Zoals je ziet is het rijtje met functies beperkter dan bij Seeing AI en Envision.
We zetten onze belangrijkste testbevindingen met Lookout op een rijtje:
Lookout kun je gratis ophalen voor je Androidtelefoon in de Google Play Store. De app is niet beschikbaar voor de iPhone.

Apple rust zijn iPhones intussen al een hele tijd uit met de Vergrootglas-app, waarmee je als slechtziende de tekst van een document kunt vergroten en eventueel ook het kleurcontrast kunt aanpassen. Midden in de coronacrisis heeft Apple daar een AI-functie aan toegevoegd die personen in het camerabeeld herkent en nagaat of de veiligheidsafstand gerespecteerd wordt. In de jaren nadien werden er dan nog extra AI-functies toegevoegd.
De eerste aanvulling zorgt voor de herkenning van deuren in het camerabeeld, het beschrijven van de deur en desgewenst ook het voorlezen van de tekst van een naambordje op de deur. De afstand tot de deur wordt aangegeven en bij het stappen in de richting van de deur hoor je meldingen van de afnemende afstand.
Een tweede aanvulling is ‘Wijs en spreek’. Wanneer je een document in beeld neemt en met je vinger naar de tekst wijst op het document, wordt die tekst voorgelezen. Dat doet sterk denken aan de bediening van de leesfunctie bij de Orcam-bril.
En zo is de app een vreemde combinatie geworden van een leeshulpmiddel voor slechtzienden met toegevoegde AI-functies voor blinde gebruikers. We zijn dus benieuwd hoe dat in de toekomst zal evolueren. Maar dan zal Europa eerst een beetje moeten milderen in zijn bedenkelijke jacht op ICT-bedrijven, waardoor Apple de stap niet waagt om Apple Intelligence (de AI-technologie van Apple) in Europa beschikbaar te stellen.
Al bij al zijn we, vergeleken met Seeing AI en Envision, niet zo erg onder de indruk van de AI-functies van het Vergrootglas.
De Vergrootglas-app behoort tot de standaarduitrusting van elke nieuwe iPhone.

Be My
Eyes is een app die al heel wat jaren meedraait en die blinde
hulpvragers in contact brengt met vrijwillige ziende
hulpverleners.
Nieuw is echter de functie ‘Be My AI’ die
gebruikers de mogelijkheid geeft om zich te laten helpen door AI in
plaats van door een hulpverlener. Je kiest dus als gebruiker hoe je
je wilt laten helpen.
Kies je voor de ‘Be My AI’-functie, dan kun je vanuit de app een foto maken die automatisch geanalyseerd en beschreven wordt. Je kunt vervolgens over die foto nog een of meer concrete vragen stellen die de app beantwoordt. Tot slot kun je alsnog contact nemen met de vrijwillige hulpverlener die jouw foto te zien krijgt, waarbij je dan nog extra vragen kunt stellen.
De beschrijving van de foto is bijzonder uitgebreid en accuraat en kan een vergelijking met de scène-herkenning van Seeing AI gemakkelijk doorstaan.
Be My Eyes is gratis op te halen in de Apple App Store voor iPhone-gebruikers en in de Google Play Store voor bezitters van een Androidsmartphone.

Sinds vele tientallen jaren is OCR (optische tekstherkenning) de technologie bij uitstek om gedrukte documenten toegankelijk te maken voor wie die documenten niet visueel kan lezen. Het probleem bij OCR is echter dat documenten soms een complexe opmaak hebben (denk daarbij bijvoorbeeld aan een factuur) en moeilijk geschreven zijn (zoals juridische teksten), waardoor tekstherkenning soms rare, moeilijk te vatten resultaten oplevert.
Daar biedt Lees Simpel een oplossing voor. De app laat namelijk AI los op het resultaat van tekstherkenning, wat een vaak veel begrijpelijker resultaat oplevert. De app werkt erg eenvoudig. Je neemt een foto van het document. Er is helaas geen mogelijkheid om de foto automatisch te laten nemen zodra de vier documentranden in beeld zijn. Als je niet zo goed bent in het blind fotograferen, gebruik je dus best een scanstand. Vervolgens past Lees Simpel OCR toe op de foto en laat hij AI los op de herkende tekst om de essentie uit het document te halen en op een begrijpelijke manier samen te vatten en te formuleren. Het resultaat verschijnt op het scherm, samen met de voorleesknop, waarmee je dan dat resultaat kunt laten voorlezen.
Door de combinatie van OCR en AI kan Lees Simpel voor heel wat documenttypes een heel goed hulpmiddel zijn.

Zuzanka verscheen in de App Store met de bedoeling om een hulpmiddel aan te bieden om op een gemakkelijke en snelle manier de vervaldatum op de verpakking van een voedingsproduct op te zoeken en voor te lezen. Recent is die app uitgebreid met twee bijkomende functies: tekst op de verpakking van het product voorlezen en de info achter de streepjescode op de verpakking ophalen en voorlezen. Je kunt elk van die drie functies onafhankelijk van elkaar aan- en uitzetten.
De app werkt op live beeld; je hoeft dus niet eerst een foto te maken. Je richt de camera op de verpakking, waarna je een reeks pieptonen hoort. Je kunt het product wat om zijn as draaien om alle zijden in beeld te brengen. Wanneer de pieptonen sneller op elkaar volgen, is er een vervaldatum in beeld. Als je vervolgens het product en je camera stilhoudt, wordt de datum uitgelezen.
Zuzanka wordt aangeboden in de Apple App Store voor de iPhone en in de Google Play Store voor Androidtelefoons. Na een gratis proefperiode van 14 dagen betaal je 2,99 euro per maand (of 19,99 euro per jaar) voor het gebruik van de app. Vind je die prijzen te hoog, dan kun je de app gratis blijven gebruiken met de beperking dat je slechts één datumscan per dag kunt doen.

De OOrion-app is ontstaan nadat twee ingenieurs het verhaal hoorden van een blinde vrouw die vertelde dat ze meer dan twintig minuten op de grond naar haar sleutel had moeten zoeken in het onthaal van het gebouw waar ze woonde.
Met de gratis app kun je objecten en tekst zoeken en aanwijzingen krijgen om naar dat object of die tekst toe te stappen. Je kunt ook objecten en tekst in de omgeving laten beschrijven. Maar je kunt de app ook trainen om je persoonlijke objecten te leren kennen, zodat de app daar specifiek naar kan zoeken.
OOrion kun je gebruiken met of zonder VoiceOver en hij is ook bedienbaar via Siri-commando’s. Een internetconnectie is niet noodzakelijk. De app is beschikbaar in vele talen, waaronder ook Nederlands.
De beschikbare functies zijn:

PiccyBot is ontwikkeld door Sparkling Apps, met als doel dat elke vorm van visuele content toegankelijk moet zijn voor iedereen. Ze willen een brug vormen tussen visuele media en mensen met een visuele beperking.
Er zijn inmiddels heel wat beschrijvende AI-modellen op de markt, de komst van deze app viel voornamelijk op door de mogelijkheid van videobeschrijving. Je kunt een video maken of een bestaande video laten beschrijven. Je krijgt heel wat info over de inhoud van de video. Heel wat details worden beschreven maar niet elke herkenning is perfect. Je moet vooral op je hoede zijn voor hallucinaties en detailverwarring. PiccyBot genereert gesproken omschrijvingen in plaats van tekstuele beschrijvingen op het scherm. Na de beschrijving van een video kun je er ook nog specifieke vragen over stellen. Zoals bij de meeste beschrijvende apps kun je ook direct vanuit sociale media zoals WhatsApp, Telegram, Snapchat … een foto of video laten beschrijven.
De app wordt aangeboden in een gratis versie, maar er is ook een premium-versie, waarbij je kunt kiezen voor een maandabonnement of een eenmalige aankoop. De premium-versie toont geen advertenties, geeft je de keuze uit zeven verschillende AI-modellen en biedt de mogelijkheid om de stem en snelheid ervan aan te passen. Je beschikt ook over een hogere woordlimiet.
Er staat ons op het vlak van AI ongetwijfeld nog heel wat moois te wachten. Zo wordt er door meerdere ontwikkelaars al druk geëxperimenteerd met externe camera’s, zodat je de handen vrijhoudt en de smartphone op zak. Vooral dat laatste is interessant als je een AI-app in het publiek domein wilt gebruiken.
Verder kijken we ook erg uit naar de Nederlandse versie van Apple Intelligence, de Apple interpretatie van AI, die veelbelovend is.
jeroen.baldewijns@lichtenliefde.be
eline.de.ganck@lichtenliefde.be
Gerard van Rijswijk, Koninklijke Visio

We kennen en gebruiken de Google Assistent al enkele jaren om vragen te stellen, telefoontjes te plegen, herinneringen in te stellen en nog veel meer. Met de komst van AI (kunstmatige intelligentie) heeft Google echter een geavanceerde AI-assistent ontwikkeld die verder gaat dan de basisfunctionaliteiten van de Google Assistent. Google noemt die nieuwe assistent: Gemini. We leggen uit hoe je Gemini gebruikt en wat je ermee kunt.
Allereerst kan Gemini veel van de taken overnemen die je gewend bent van Google Assistent. Denk bijvoorbeeld aan:
Gemini is niet alleen een vervanging voor Google Assistent, maar biedt ook nieuwe mogelijkheden. Een van de grootste voordelen is dat je kunt doorvragen over een onderwerp.
Stel je voor dat je Gemini vraagt om iets over de Eiffeltoren te vertellen. Vervolgens kun je daarna vragen: "Wie heeft hem gebouwd?". Gemini weet dan dat je het nog altijd over de Eiffeltoren hebt. Dat maakt de interactie met Gemini veel natuurlijker en efficiënter.
In de toekomst zullen Gemini en Google Assistent waarschijnlijk nog meer met elkaar verweven raken. Het is mogelijk dat Google Assistent in de toekomst volledig wordt vervangen door Gemini of dat Gemini de geavanceerde ‘motor’ wordt achter Google Assistent, waardoor de Assistent in de toekomst nog slimmer en capabeler wordt.
Gemini geeft uitgebreidere en gedetailleerdere antwoorden op je vragen dan Google Assistent. Waar Google Assistent je na een algemeen antwoord vaak doorverwijst naar een internetsite voor aanvullende informatie, komt Gemini meteen met een compleet en diepgaand antwoord. Gemini is ontworpen om je beter te informeren en je te helpen meer te leren over de wereld om je heen.
Heb je geïnvesteerd in slimme speakers van Google, zoals de Nest Mini, Nest Audio of het slimme scherm Nest Hub? Die kun je op dit moment nog niet met Gemini gebruiken. Daar werkt alles nog via de Google Assistent.
Als je Gemini gebruikt, is het wel mogelijk om weer terug te schakelen naar Google Assistent. Hoe je dat doet, leggen we verder in dit artikel uit.
Om Gemini op Android te kunnen gebruiken, zijn er twee opties:
Er zijn verschillende manieren om Gemini te starten op je Androidtelefoon of -tablet.
Let op:
Live gesprekken met Gemini zijn een nieuwe en spannende manier om met de AI-assistent te communiceren. Het is alsof je een natuurlijk gesprek voert, net als met een mens.
Hoe begin je een live gesprek?
Tip voor live gesprekken:
Wanneer je gebruik maakt van Gemini, wordt alle informatie die je deelt, gebruikt voor het trainen van Gemini. Dat helpt om de antwoorden van Gemini verder te verbeteren. Houd er rekening mee dat medewerkers van Google die informatie kunnen inzien. Wees daarom voorzichtig met wat je deelt, vooral als het gaat om bedrijfsgevoelige of privégegevens.
Standaard bewaart Google die informatie 18 maanden. Je kunt dat aanpassen in de instellingen van de Gemini-app en ervoor kiezen om je chats slechts 72 uur te bewaren.
Je kunt je privacy-instellingen in de Gemini-app aanpassen door de volgende stappen te volgen:
Let op: als je (in de instellingen) de Gemini-apps-activiteit uitschakelt, werken de extensies niet meer. Extensies stellen Gemini in staat om informatie uit andere apps te gebruiken, waardoor de mogelijkheden toenemen en de reacties persoonlijker worden.
Gerard van Rijswijk, Koninklijke Visio
Wanneer je met Jaws of Fusion op internet navigeert, kom je soms foto's, grafieken en andere visuele elementen tegen zonder alternatieve beschrijving, of met een beschrijving die slechts zeer summier is. Een alternatieve beschrijving – ook wel alt-tekst genoemd – is een korte tekst die uitlegt wat er op een afbeelding, video of grafisch element te zien is.
Als de alt-tekst weinig informatie biedt, kan het lastig zijn om te begrijpen wat er op een afbeelding of grafiek weergegeven wordt. Maar ook als je nog meer wilt weten over die afbeelding kan de AI- beeldbeschrijving van Jaws of Fusion uitkomst bieden. Die functie maakt gebruik van kunstmatige intelligentie om visuele elementen te beschrijven.
Om de meerwaarde van beeldbeschrijving te demonstreren, vind je onder deze alinea een voorbeeldfoto. Die heeft de volgende alternatieve beeldbeschrijving: “Groep jongeren zittend op het strand.”

Als we nu terug navigeren naar de foto en we starten de beeldbeschrijvingsfunctie van Fusion of Jaws, dan zal de beschrijving uitgebreider zijn. Dat doe je als volgt:
De beeldbeschrijving opent in een nieuw venster en is veel uitgebreider dan de alternatieve beschrijving die je daarnet las, namelijk:
“Een groep van zes mensen zit op het strand tijdens zonsondergang. Ze lachen en praten samen. Een persoon speelt gitaar en de anderen kijken blij en ontspannen. Ze zitten dicht bij elkaar in een kring, genietend van elkaars gezelschap. De sfeer is vrolijk en zorgeloos, met de zee en een kleurrijke lucht op de achtergrond.”
Na de uitgebreide beeldbeschrijving kun je aanvullende vragen stellen over de afbeelding.
Je kunt ervoor kiezen om de beeldbeschrijving nog uitgebreider te krijgen.
Met de beeldbeschrijvingsfunctie van Jaws en Fusion wordt visuele informatie toegankelijker en gedetailleerder. Daardoor kunnen gebruikers niet alleen de inhoud beter begrijpen, maar ook specifieke vragen stellen en nog meer details verkrijgen. Dat maakt het navigeren en interpreteren van visuele elementen op het internet een stuk eenvoudiger en inclusiever.
Mustafa Fawzi, Sven
Lysiak &Tim Mortier
Studenten Toegepaste Informatica,
Artificiële Intelligentie en Software Development Vives Hogeschool
Kortrijk
De vzw Kamelego geeft elke werkdag 7 Vlaamse kranten uit in gesproken vorm. De tekstuele informatie komt van Mediahuis of van Belga en wordt via TTS omgezet in spraak. Tekst- en spraakbestanden van een krant worden dan samengebracht in een daisybestand (meer info op www.daisy.org). Dat bestand kan via de website www.anderslezen.be beluisterd of gedownload worden en is ook beschikbaar in de app Anderslezen. In beide gevallen kun je via de menustructuur de krantenartikels die je wilt beluisteren, kiezen.
Voor ons project kregen we de opdracht om een AI-gebaseerd beter en goedkoper TTS-model te voorzien voor de aanmaak van de daisybestanden.
We begonnen het project met verschillende opensource-modellen te zoeken. Daarbij hielden we rekening met gebruikslicenties, betaalbaarheid en de kwaliteit van de stem zelf. We vonden verschillende modellen die gratis en bruikbaar waren. Vaak waren die stemmen in het Nederlands maar niet in het Vlaams. Er waren ook een aantal Vlaamse stemmen, maar de kwaliteit van die stemmen was niet optimaal.
Uiteindelijk vonden we PiperTTS. Dat is een opensource-model dat verschillende stemmen aanbiedt, met een hoge kwaliteit, ook met een Vlaams accent. Dat model stelt ons ook in staat om later de stem te verfijnen of zelfs een volledige nieuwe stem te trainen. Dat kan allemaal zonder kosten aangezien het model onder de zogenaamde MIT-licenties valt (MIT = Massachusetts Institute of Technology). Daardoor kan en mag het model voor alle doeleinden gebruikt en gedistribueerd worden, ook voor commerciële doeleinden.
Nadat we dat model gevonden hadden, hebben we een API rond dat model gebouwd. Een API is een verzameling definities op basis waarvan een computerprogramma kan communiceren met een ander. We zorgden ervoor dat ZIP-files met daarin krantenartikelen in XML-formaat verstuurd konden worden naar de API. Die kranten worden dan omgezet naar spraak en dan worden er bestanden bijgemaakt zodat de output in Daisy 2.02 wordt gegeven. Dat daisyformaat zorgt ervoor dat de lezer onder meer kan navigeren in de krant en de audio kan volgen op het scherm via highlights.
Wanneer de API de krantenartikelen ontvangt in XML-formaat, worden die eerst omgezet naar een groot HTML-bestand. Dat bestand bevat de volledige krant die uiteindelijk te zien is in de Anderslezen-app. Daarna wordt die file met behulp van het PiperTTS-model omgezet naar spraak. Per artikel is er een apart mp3-bestand. Er wordt ook per artikel een SMIL-bestand gemaakt dat ervoor zorgt dat elke paragraaf gekoppeld wordt aan zijn timing in de mp3-bestanden (SMIL = Synchronized Multimedia Integration Language). Ten slotte wordt er nog een ncc.html-bestand gemaakt, wat dient als een inhoudstafel om te kunnen navigeren doorheen de krant.
Naast de API hebben we ook een webapplicatie ontwikkeld om de functionaliteiten te visualiseren en te testen. De webapp bestaat uit vijf pagina’s:





Met de webapp bieden we een gebruiksvriendelijke manier om het TTS-model en de API te testen en te optimaliseren. Dat zorgt ervoor dat de integratie met de Anderslezen-app (die gebruikt wordt om de kranten te lezen/beluisteren) soepel verloopt en de gebruikers een betere luisterervaring krijgen.
Na de conversie kunnen de gegenereerde bestanden (html, SMIL, mp3, ncc.html) gezipt worden tot een daisybestand en bijvoorbeeld via Dropbox geüpload worden naar de Anderslezen-app. Op die app zal het artikel dan geopend en beluisterd kunnen worden. Dankzij het gebruik van Daisy en SMIL zullen de voorgelezen paragrafen gemarkeerd worden. Wanneer een gebruiker op een andere paragraaf drukt, zal de markering verplaatst worden en wordt de nieuwe paragraaf voorgelezen. Dat zorgt voor een dynamische en interactieve luisterervaring voor de gebruiker.
Naast de hierboven besproken ontwikkeling van onze autonoom werkende software om volledige kranten aan te maken, hebben we ook met de firma Sensotec samengewerkt zodat onze TTS-module (tekst naar spraakomzetting) in de zogenaamde Wizard-module kon ingebouwd worden. De Wizard-module wordt op dit ogenblik gebruikt door Kamelego om de dagelijkse kranten aan te maken. Op die wijze is maar een minimale ingreep nodig in de bestaande productieketen.
PS: Vanuit Kamelego ontvingen we voor dit project de steun en goede raad van André, Jan, Marc, Evi en Kris. Bij Sensotec werd samengewerkt met Frank, Yorick en Didier.
De auteurs kunnen bereikt worden via: jan.j.engelen@gmail.com
Gerrit Van den Breede, VAPH
We zijn zo gewend aan de dominantie van het zicht tijdens een autorit. Het voorbijglijdende landschap is onze constante metgezel, een visueel decor dat onze reizen kleurt. Maar wat als die visuele informatie wegvalt? Blijft er dan een leegte over, een onervaren niemandsland? De Koreaanse autobouwer Kia daagt die aanname op een fascinerende manier uit met hun project 'Soundscapes'.
Het idee is eenvoudig maar diepgaand: het landschap dat we niet kunnen zien, kunnen we misschien wel horen. Door middel van kunstmatige intelligentie worden de contouren van de wereld buiten de autoruiten vertaald naar een auditieve ervaring. Bomen zingen als houtblazers, bergen resoneren als diepe bassen en rivieren kabbelen als speelse melodieën. De muziek beweegt mee met de auto, een live soundtrack van een onzichtbare realiteit.
Dat experiment van Kia en Innocean Berlin raakt aan een fundamenteel aspect van de menselijke perceptie. We vertrouwen zo sterk op onze ogen dat we soms vergeten hoe rijk de wereld van geluid kan zijn. Voor mensen met een visuele beperking is gehoor vaak een primaire bron van informatie en beleving.
De ontroerende reacties van de blinde deelnemers die de Soundscapes-rit in de Kia EV9 ervoeren, onderstrepen de kracht van dat concept. Het landschap kwam tot leven, zeiden ze. Een abstractie werd tastbaar, een onzichtbare wereld werd hoorbaar.
Het project wordt gezien als een verkenning van hoe technologie barrières kan slechten. En dat is precies wat het is. Het is een poging om de kloof te overbruggen tussen de ziende en de niet-ziende wereld, om een nieuwe vorm van connectie met de omgeving te creëren.
Hoewel Soundscapes nog geen commercieel product is, is de belofte die het in zich draagt, betekenisvol. Het herinnert ons eraan dat er alternatieve manieren zijn om de wereld te ervaren, dat technologie niet alleen ons leven gemakkelijker kan maken, maar ook onze zintuiglijke horizon kan verbreden.
De eerlijkheid gebiedt mij te vermelden dat deze column met behulp van AI (Gemini) geschreven werd. Weliswaar met enkele retouches (het verantwoord aanbrengen van verbeteringen) door ondergetekende. Ik dacht dat het wel past in dit themanummer.
Marc Stovers, Koninklijke Visio
Hieronder kun je nog een overzicht vinden van al de artikels over AI die op het Kennisportaal staan. Ze worden weergegeven met de link en ze worden onderverdeeld in drie categorieën: hulpmiddelen, apps en ‘zelf aan de slag’.
AI-toepassingen bij Envision Glasses
VoxiVision, makkelijk voorleesapparaat met AI
Herkenningsapps en slimme brillen, dit zijn de verschillen
Zeven handige apps met AI-functies
Teksten samenvatten en voorlezen met Lees Simpel-app
Emvi, een herkenningsapp met AI
Google Lookout, je visuele assistent op Android
Envision AI, de volledige handleiding (iOS)
Envision AI, zo werkt de app met Talkback
Seeing AI, de volledige handleiding (Android)
Seeing AI, de volledige handleiding (iOS)
Gemini, je nieuwe AI-assistent op Android
Zelf AI uitproberen: ChatGPT, Gemini en Copilot
Ai ai ai... Koken met AI (podcast)
Hoe vind ik informatie via zoekmachines en AI (podcast)
Van al de artikels hierboven werd op het Kennisportaal ook een overzichtspagina gemaakt. In de toekomst zullen ook al de artikels over AI daaraan toegevoegd worden. Daarom is en blijft de link ernaar wel interessant:
https://kennisportaal.visio.org/documenten/overzichtspagina-ai-kunstmatige-intelligentie/
Yannick Scholte en Nynke Sietsche Lettinga, Koninklijke Visio

Ons huis wordt almaar verder geautomatiseerd. Stel je voor: je stapt uit bed, de gordijnen gaan automatisch open, de radio praat je bij over het laatste nieuws en de verlichting in huis wordt automatisch afgestemd op het weer buiten. In dit artikel gaan we in op slimme verlichting. Hoe werkt het, wat zijn de voordelen als je een visuele beperking hebt en waar kun je over nadenken als je aanschaf overweegt.
Kom je er na het lezen niet uit, of heb je nog vragen? We helpen je graag verder. Aan het einde van dit artikel vind je onze contactgegevens.
Tip: Wil je meer weten over je huis slim inrichten, lees dan dit artikel:
Je huis slim maken, slim of niet?
Slimme lampen hebben een chip ingebouwd waarmee ze draadloos kunnen communiceren met andere apparaten. Je kunt ze verbinden met een smartphone of tablet, slimme speaker, bewegingssensor of een afstandsbediening.
Je kunt lampen automatisch aan en uit laten gaan, van kleur veranderen of op afstand bedienen. Er zijn allerlei ‘slimme’ instellingen mogelijk. Je kunt de verlichting afstemmen op wat je aan het doen bent en waar. Je kunt dat doen door scènes te programmeren en die later op te roepen. Zo kun je bijvoorbeeld met een stemcommando de sfeerverlichting aanzetten. Ook kun je routines programmeren. Dan laat je bijvoorbeeld om acht uur automatisch het licht aan gaan. Dat programmeren doe je meestal met een app. Sommige apps horen bij een enkel apparaat, met andere apps kun je je hele slimme huis met meerdere apparaten inrichten en bedienen.
Slimme verlichting biedt gebruiksgemak in het bedienen van je lampen. Als je slechtziend of blind bent, biedt het bovendien allerlei mogelijkheden om de verlichting aan te passen aan datgene wat jij nodig hebt en prettig vindt om je omgeving zo goed mogelijk te kunnen zien.
Heb je bijvoorbeeld behoefte aan veel licht, dan kun je de slimme verlichting zo instellen dat aan jouw lichtbehoefte wordt voldaan. Ben je blind maar wil je wel dat er ‘s avonds een lichtje brandt of vinden je familieleden het fijn om je te kunnen zien, dan hoef je niet meer te zoeken naar het lichtknopje, maar geef je je slimme apparaat opdracht om de lampen aan te zetten.
We hebben zeven voordelen van slimme verlichting op een rij gezet:
Slimme verlichting kun je bedienen via een smartphone of tablet, ongeacht waar je je bevindt. Dat betekent dat je de lichten kunt aan- of uitschakelen, de helderheid kunt aanpassen of de kleur kunt veranderen, ook als je bijvoorbeeld in een andere kamer of buitenshuis bent.
Als je je slimme verlichting integreert met een spraakassistent zoals Amazon, Apple, Siri, Google Assistant of Alexa, kun je je lampen met eenvoudige spraakcommando’s bedienen. Je hoeft dan niet meer op zoek naar knoppen of schakelaars en dat kan je heel wat tijd en energie besparen. Wel zo fijn als je een visuele beperking hebt. Maar ook voor mensen met motorische problemen kan stembediening een uitkomst zijn.
Veel slimme lampen bieden een breed scala aan kleuren en tinten wit licht. Daardoor kun je de sfeer van een kamer aanpassen aan je stemming of aan de gelegenheid. Als je slechtziend bent, kun je de kleur en helderheid aanpassen aan jouw specifieke behoefte. En dat kun je per plek of op elk gewenst moment veranderen. Zo kun je voor verschillende activiteiten zoals lezen, werken of ontspannen een comfortabele omgeving creëren.
Je kunt tijdschema's instellen om de lichten op specifieke tijden aan of uit te laten gaan. Daarmee kun je bijvoorbeeld energie besparen of je huis bewoond laten lijken als je weg bent. Maar je kunt ook de verlichting automatisch aanpassen aan je behoefte mocht die gedurende de dag of avond veranderen.
Slimme verlichting kan helpen om energie te besparen door middel van geautomatiseerde schema's en sensoren die lichten uitschakelen wanneer een kamer niet in gebruik is. Sommige systemen kunnen ook het energieverbruik monitoren en rapporteren, zodat je inzicht krijgt in je verbruik en manieren kunt vinden om dat te verminderen.
Slimme verlichting kan vaak worden geïntegreerd met andere slimme huisapparaten zoals slimme thermostaten, beveiligingscamera's, rookmelders en andere alarmsystemen. Daardoor kun je scenario's creëren waarin meerdere apparaten samenwerken. Zo kun je bijvoorbeeld een geluid laten afgaan wanneer er iemand aan de deur staat. Heb je een gehoorbeperking? Dan kun je ervoor kiezen om de lampen te laten knipperen.
De meeste slimme verlichtingssystemen zijn eenvoudig te installeren, vaak zonder dat er een elektricien nodig is. De bijbehorende apps zijn in veel gevallen gebruiksvriendelijk en toegankelijk te bedienen, met intuïtieve interfaces die het eenvoudig maken om de verlichting te bedienen en instellingen aan te passen. Veel apps zijn goed toegankelijk als je een schermlezer gebruikt.
Voordat we verder ingaan op apparatuur en aanschaf willen we je een voorbeeld uit de praktijk geven hoe je als slechtziende je slimme lampen zou kunnen ervaren. Dat voorbeeld is een uitgebreid en realistisch scenario. Natuurlijk kan het ook eenvoudiger dan dat.
“Na een lange werkdag kom ik thuis. Ik open de voordeur. De Hue contactsensor aan de deur wordt geactiveerd en de lampen in de hal gaan automatisch aan.
Ik loop naar de keuken en leg mijn telefoon aan de lader. Daardoor gaan meteen de taaklampen voor het koken in de keuken aan. Ik heb namelijk een opdracht op mijn iPhone gemaakt waarbij de taaklampen tussen 16:00 en 19:00 automatisch aangaan als ik thuis mijn telefoon aan de lader leg.
Nu loop ik naar de woonkamer, zet bij de eettafel de lamp aan en dek de tafel. Dankzij de Hue Wallswitch is mijn ‘gewone’ schakelaar van de lamp slim geworden. Daardoor kan ik een voorgeprogrammeerde scène kiezen die bij de situatie past. De lamp staat nu automatisch op sfeerverlichting.
Na het eten ruim ik alles op en maak ik me klaar om te gaan sporten. Nog even naar het toilet waar het licht vanzelf aan- en uitgaat door de bewegingssensor. Ik kleed me om, pak mijn sportspullen en loop naar de schuur om de fiets te pakken.
Voordat ik op mijn fiets stap, vraag ik me af of ik het huis goed heb afgesloten. Ik check mijn Hue-app en zie dat de contactsensor bij de deur gesloten is, net als de ramen in het huis. Mooi, alles is dus toch dicht. In het Hue Secure-gedeelte zie ik bovendien op de Hue camera dat mijn hond al lekker ligt te slapen. Met een gerust gevoel ga ik naar de sportschool.
Na het sporten, fiets ik weer naar huis. De outdoor bewegingssensor ziet dat ik er weer ben en voorziet mij van voldoende licht om mijn fiets weg te kunnen zetten. Ik open de voordeur. Ook nu wordt de contactsensor aan de deur weer geactiveerd, maar die is nu zo ingesteld dat de lampen meer licht geven. Het is immers al later op de avond en donkerder in huis dan vanmiddag.
Ik sluit de dag af met het kijken van een serie op de bank. Tijdens het televisiekijken merk ik dat ik wat extra verlichting mis. Met het spraakcommando "Hi Siri, zet sfeerverlichting aan" zet ik alle sfeerlampen in de woonkamer aan.
Na het tv-kijken ga ik naar bed om lekker te slapen. Maar midden in de nacht moet ik toch nog even naar het toilet. Zodra ik uit bed stap, zorgt de bewegingssensor onder het bed ervoor dat de ledstrip aangaat, waardoor ik me goed kan oriënteren in de slaapkamer. De sensoren in de gang en het toilet worden wederom geactiveerd zodra ik in die ruimtes ben. Maar in plaats van fel licht is nu de scène ‘nachtlamp’ ingesteld. Daardoor kan ik me goed oriënteren zonder meteen klaarwakker te worden.
Met Philips Hue is mijn huis niet alleen slimmer, maar ook veel toegankelijker en veiliger geworden.”
Voordat we gaan vertellen waar je op moet letten bij aanschaf, is het goed om te weten wat je ervoor nodig hebt. In de regel heb je enkele basisproducten nodig om te beginnen, afhankelijk van het merk en de functies die je wilt kunnen gebruiken.
Die basis bestaat dan uit slimme lampen die je mogelijk moet aanvullen met een hub of bridge. Daarnaast heb je je smartphone of tablet nodig. Met die set kun je je lampen installeren en bedienen.
Je kunt daarna je systeem verder verbeteren en personaliseren naar jouw behoeften met optionele accessoires zoals slimme schakelaars, spraakassistenten, bewegingssensoren of slimme plugs. Door de juiste combinatie van die producten te kiezen, kun je een flexibel en gebruiksvriendelijk slim verlichtingssysteem maken.
Hier is een overzicht van de essentiële en optionele producten die je (mogelijk) nodig hebt:
Lampen vormen de basiscomponenten van je slimme verlichting. Ze zijn er voor verschillende armaturen en fittingen, zoals E27, GU10, of E14.
Bekende merken zijn Philips Hue, Lifx, en TP-Link Kasa. Vrijwel alle lampen die worden aangeboden, zijn led-lampen.
Met een hub of bridge zorg je ervoor dat je lampen verbinding kunnen maken met het netwerk, zodat je ze kunt bedienen of met andere apparaten kunt verbinden. Niet alle lampen hebben een hub of bridge nodig, sommige kunnen zelf verbinding maken met je wifi-netwerk.
Zo hebben Philips Hue-lampen een Philips Hue-bridge nodig om de lampen met je wifi-netwerk te verbinden. Dat geldt ook voor andere merken zoals Ikea Tradfri.
Andere merken zoals Lifx en TP-Link Kasa hebben geen bridge nodig omdat ze direct met je wifi-netwerk kunnen verbinden.
Een smartphone of tablet heb je nodig om de app te installeren die je gebruikt om de verlichting in te stellen en te bedienen. De meeste merken hebben apps beschikbaar voor zowel iOS als Android.
Als je al een slim huis hebt, kun je voor de bediening mogelijk ook een andere, overkoepelende app gebruiken zoals bijvoorbeeld de Woning-app van Apple. Daarmee kun je alle apparaten instellen en bedienen.
Als je je lampen niet alleen via de app, maar ook met fysieke knoppen wilt kunnen schakelen of dimmen, kun je slimme schakelaars en dimmers toevoegen die daarmee uitgerust zijn.
Enkele voorbeelden van schakelaars zijn Philips Hue-Dimmer Switch of Lutron Caseta Wireless Dimmer.
Met een spraakassistent kun je je lampen of andere slimme apparaten bedienen met je stem. Als je de spraakassistent van je slimme speaker gebruikt, heb je altijd je handen vrij. Je kunt eventueel ook de spraakassistent op je telefoon gebruiken.
De spraakassistenten van Amazon Echo, Google Nest of Apple HomePod zijn respectievelijk Alexa, Google Assistant of Siri.
Als je niet-slimme lampen of andere apparaten in je slimme verlichtingssysteem wilt opnemen, kun je slimme plugs ofwel slimme stekkers gebruiken.
Lees meer over slimme stekkers op het Kennisportaal
Daarmee kun je bijvoorbeeld de verlichting automatisch inschakelen wanneer iemand een kamer betreedt en uitschakelen als de sensor geen beweging meer detecteert.
Een voorbeeld van een sensor is de Philips Hue-Motion Sensor.
Die zorgen voor een gemakkelijke bediening zonder smartphone, zoals de Ikea Tradfri remote.
Sommige systemen kunnen extra bridges nodig hebben als ze in een andere taal communiceren dan wat jij in huis hebt. Omdat de grote merken ieder hun eigen protocollen hanteren, heb je mogelijk een bridge nodig als je apparatuur van verschillende merken wilt combineren.
Overweeg je aanschaf van slimme verlichting? Zorg dat je je goed informeert of laat informeren, bijvoorbeeld in de winkel. De volgende vragen zijn zeker de moeite waard:
Het is namelijk wel fijn als je je bestaande spullen kunt behouden.
Natuurlijk wil je weten wat je allemaal kunt met het verlichtingssysteem.
Als er meerdere bedieningsmanieren mogelijk zijn, kan dat lonen. Je bent dan immers flexibeler in hoe je het geheel gaat inrichten.
Het mooie van slimme apparaten is dat je ze kunt koppelen. Dat is echter geen vanzelfsprekendheid en daarom is het belangrijk om dat uit te zoeken:
Ja, er zijn verschillende alternatieven voor slimme verlichting die ook bijdragen aan het verbeteren van verlichting en gebruiksgemak in huis, zonder dat ze direct via een app of spraakassistent worden bestuurd. Enkele opties zijn dimbare ledlampen, timers, bewegingssensoren, daglicht en schermsensoren, afstandsbedieningen en plug-in timers.
Zoals je hebt kunnen lezen, zitten er veel voordelen aan het gebruik van slimme verlichting. Wanneer je hebt nagedacht over bovenstaande vragen kun je een weldoordachte keuze gaan maken voor het merk, type en de bediening.
Marc Stovers, Koninklijke Visio
Naast alle artikels die je in dit magazine kunt lezen, biedt deze rubriek je de mogelijkheid om ook te luisteren of te kijken. We geven een selectie van interessante onderwerpen. Na elke beschrijving vind je de link. Tenzij anders aangegeven, zijn de video’s ook goed te volgen als je alleen luistert.
Met Dragon Naturally Speaking kun je met je stem niet alleen snel en effectief teksten produceren, maar zelfs de pc bedienen. Moet je voor je werk veel teksten maken, of ben je niet goed in staat om het toetsenbord te gebruiken, bekijk dan zeker deze video.
Beluister de video over dicteren en Dragon
In deze podcast ontdek je hoe je een AI-chatdienst praktisch kunt inzetten in de keuken. Vergeet het eindeloze zoeken op internet naar dat ene perfecte recept of naar een maaltijd die past bij jouw of bij de dieetwensen van je gasten. Met een AI-chatdienst kun je eenvoudig een recept laten genereren dat volledig afgestemd is op jouw voorkeuren, inclusief een boodschappenlijstje en een stappenplan.
Beluister de podcast over koken met AI
Be My
Eyes is een app die mensen helpt met het omschrijven van brieven,
folders, objecten en andere dingen waar je meer details over wilt
weten.
Met de app kun je een ‘Live Foto’ maken en vragen
stellen over die foto. Zo krijg je meer details over wat er op de
afbeelding staat. Ook foto’s die je via WhatsApp of e-mail krijgt,
kun je laten omschrijven met Be My Eyes.
Daarnaast kan de app
schermafbeeldingen beschrijven, zoals een weerkaart of een product
van een webwinkel.
In deze podcast vertelt Stefan Laureijssen
hoe al die functies werken en hoe ze je kunnen helpen in het
dagelijks leven.
Beluister de podcast over Be My Eyes
Gedrukte tekst van papier scannen en daarna netjes vergroot weergeven of laten voorlezen kan een uitkomst zijn als je slecht ziet. Obbe demonstreert wat er mogelijk is en hoe dat in zijn werk gaat.
Bekijk de video over teksten scannen en voorlezen
Lekker en gezond koken als je weinig of niets kunt zien? Dat kan! Patricia Overman, is kookliefhebber en de drijvende kracht achter de Facebookgroep ‘Koken zonder zicht’. Samen met Visio neemt ze je mee in tips, trucs en mogelijkheden om lekker en gezond te koken.
Bekijk of beluister de webinar over koken
Vision 2025 is de 15de International Conference of the International Society for Low Vision Research and Rehabilitation (ISLRR). Het doel van de conferentie is manieren te onderzoeken om de impact van een visuele beperking op de dagelijkse onafhankelijkheid te minimaliseren. Deze conferentie richt zich hoofdzakelijk tot professionelen.
8 tot 12 september 2025
Firenze, Italië
AAATE 2025 is de 18de tweejaarlijkse AAATE-conferentie die een diverse gemeenschap van onderzoekers, experts, professionals, fabrikanten, gebruikers van ondersteunende technologie, beleidsmakers en toegankelijkheidsaanbieders samenbrengt. Iedereen die zich inzet om dit veld te bevorderen, is eveneens welkom. De nieuwste innovaties, visionaire concepten en baanbrekende trends in ondersteunende technologie en toegankelijkheid komen aan bod. In 2025 viert AAATE haar 30-jarig jubileum. Deze conferentie richt zich hoofdzakelijk tot professionelen.
10 tot 12 september 2025
European University Cyprus, Nicosia, Cyprus
In september 2025 komt de nieuwe update iOS 19 uit voor de iPad en iPhone. De update bevat een flink aantal vernieuwingen. Op 14 oktober gaat het webinar over de visuele aanpassingen en op 20 november over de veranderingen voor VoiceOver-gebruikers. Aanmelden kan online en is noodzakelijk.
14 oktober 2025: 10.30 tot 11.30 uur
Online via Zoom
BrailleTech is een jaarlijkse hulpmiddelenbeurs met Belgische leveranciers. Dit jaar krijgt de beurs een nieuwe look; geen videoconferenties op afstand of workshops ter plaatse. Openingsuren van 10.00 tot 16.00 uur. Het evenement richt zich tot het grote publiek en de toegang is gratis.
17 en 18 oktober 2025
Brailleliga, Engelandstraat 57, Brussel
In september 2025 komt de nieuwe update iOS 19 uit voor de iPad en iPhone. De update bevat een flink aantal vernieuwingen. Op 14 oktober gaat het webinar over de visuele aanpassingen en op 20 november over de veranderingen voor VoiceOver-gebruikers. Aanmelden kan online en is noodzakelijk.
20 november 2025: 14.00 tot 15.00 uur
Online via Zoom
Gecombineerde hulpmiddelenbeurzen ZieZo en Veine Dagen. De ZieZo-beurs richt zich specifiek op blinden en slechtzienden. Leveranciers en organisaties hebben een stand er en er worden lezingen over hulpmiddelen gegeven.
De Veine Dagen is een beurs die zich hoofdzakelijk richt op hulpmiddelen voor motorische beperkingen maar ook op cognitie en communicatie.
De twee beurzen richten zich op het grote publiek en de toegang is telkens gratis.
16 tot 18 April 2026
Jaarbeurs, Utrecht, Nederland
www.ziezo.org en veinedagen.nl
Internationale hulpmiddelenbeurs voor blinden en slechtzienden met voordrachten van producenten en organisaties. De toegang is gratis als je je op voorhand online registreert.
mei 2026
Kap Europa Frankfurt, Duitsland
(*): Activiteiten waar redactiepartners van Infovisie MagaZIEN aan deelnemen.

HUMANWARE
Canada
Web: website

VOXIWEB
Frankrijk
Web: website

ENVISION TECHNOLOGIES
Nederland
Web: https://www.letsenvision.com/glasses/home

ORCAM
Israël
Web: https://www.orcam.com/en-us/orcam-read-3
Infovisie MagaZIEN is een viermaandelijks tijdschrift over technische hulpmiddelen en universaldesign-oplossingen voor blinde en slechtziende mensen. Het wordt digitaal in HTML-formaat verspreid en is ook in gesproken vorm verkrijgbaar (voor daisyspeler of webbox). De HTML-versie is gratis, maar een vrijwillige bijdrage is een welgekomen hulp voor het redactieteam. Het digitaal, doorzoekbaar archief (met alle nummers sinds 1986) vind je op: www.infovisie.be.
Infovisie, VAPH, Licht en Liefde, Koninklijke Visio, Kennisportaal.visio.org en Bartiméus.
Jan
Engelen, Jeroen Baldewijns, Christiaan Pinkster, Gerrit Van den
Breede, Marc Stovers, Monica Schuman, Monica Naveso
Jiminez
Eindredactie: Jacqueline De bruyn, Heidi Verhoeven
Lay-out:
Jeroen Baldewijns (ontwerp), Jacqueline De bruyn (edities)
Productie
daisy: Transkript
Productie HTML: KOC
Abonneren
kan via het VAPH-KOC:
KOC – Kenniscentrum Hulpmiddelen van het
VAPH
Koning Albert II-laan 15 bus 320, 1210 Brussel
+32 2 249 34 44
koc@vaph.be
Abonnementen worden zonder schriftelijk tegenbericht automatisch verlengd bij het begin van een nieuwe jaargang.
Jan
Engelen, Amerikalaan 31/0002, B - 3000 Leuven
jan.engelen@kuleuven.be
De redactie is niet verantwoordelijk voor ingezonden artikelen. Enkel
teksten die ondertekend zijn, worden opgenomen. De redactie behoudt
zich het recht voor ingezonden stukken in te korten.
Het
redactieteam kan niet aansprakelijk gesteld worden voor onjuiste
gegevens die door leveranciers of producenten werden meegedeeld.
© Artikels uit deze publicatie kunnen enkel overgenomen worden na
voorafgaande schriftelijke toestemming van de uitgever.