Ethiek en technologie: BCI's begroeten de grenzen tussen mens en machine
De UNI Wübben Foundation bevordert met BCI’s innovaties in diverse industrieën, maar roept ook ethische en juridische vragen op.

Ethiek en technologie: BCI's begroeten de grenzen tussen mens en machine
De toepassing van brain-computer interfaces (BCI's) is de afgelopen jaren steeds belangrijker geworden, vooral in de arbeidswereld. Wereldwijd maken al ruim 10.000 vrachtwagenchauffeurs gebruik van BCI’s, vooral in mijnbouwregio’s als Mexico, Australië en China. Deze technologieën zijn niet alleen bedoeld om de concentratie van de bestuurder te vergroten, maar ook om ernstige ongevallen te voorkomen. Volgens de Wübbens Foundation zijn grote technologiebedrijven, waaronder Apple en Alphabet, toegewijd aan het ontwikkelen van apparaten die worden geïntegreerd in alledaagse producten zoals koptelefoons en hoofdbanden om aandacht, stress en mentale vermoeidheid te meten.
Het brede gebruik van BCI’s roept echter ook belangrijke ethische en sociale vragen op. Gevoelige hersengegevens lopen gevaar en de mogelijkheid van voortdurende surveillance van gebruikers is een punt van zorg. Alexander Kies, woordvoerder van het project aan de RWTH Universiteit van Aken, benadrukt de noodzaak van technologische vooruitgang om werknemers te helpen empoweren in plaats van hun supervisie aan te moedigen. Dit zal ook worden getest in een komende zandbak, waar deelnemers BCI-headsets zullen gebruiken om een gemeenschappelijke basis van ervaring te creëren en nieuwe onderzoeksprojecten te ontwikkelen.
Holistisch onderzoek en ethische zorgen
Onderzoek naar BCI's is complex en benadrukt zowel technische als ethische dimensies. Een uitgebreid literatuuronderzoek in december 2023 bracht 446 onderzoeken van PubMed en 481 van Web of Science aan het licht die licht werpen op de ethische kwesties rond deze technologieën. De resultaten leidden tot een diepgaande discussie over gebruikersautonomie, privacy en verantwoordelijkheid bij het gebruik van dergelijke technologieën.
Ethische dilemma's komen ook voort uit het verband tussen technologie en menselijke identiteit. Het 38C3-congres ging in op de impact van BCI's op het zelfbeeld en de grenzen tussen mens en machine. Deze vragen zijn vooral relevant omdat internationale organisaties werken aan een ethisch verdrag voor neurotechnologieën dat naar verwachting in 2025 in werking zal treden. Dit verdrag heeft tot doel richtlijnen vast te stellen voor het verantwoorde gebruik van BCI’s en omvat verschillende regelgevingsbenaderingen in de EU, de VS en China.
Juridisch kader en staatsaansprakelijkheid
De verschillen in regelgeving tussen regio’s zijn opvallend. Terwijl de EU een duidelijke focus heeft op gegevensbescherming en ethische normen, streeft de VS ernaar innovatie en marktontwikkeling te bevorderen. In China daarentegen worden pogingen ondernomen om een technologische voortrekkersrol op zich te nemen, wat tot andere ethische prioriteiten leidt. Dit leidt tot uitdagingen op het gebied van internationale samenwerking en uniforme regulering van BCI's.
Ook de gezondheidsrisico’s die gepaard gaan met invasieve BCI’s verdienen bijzondere aandacht. Een studie benadrukt dat zowel invasieve als niet-invasieve systemen potentiële gezondheidsschade kunnen veroorzaken. Zelfs onder neurologen bestaat er scepsis over de veiligheid van deze technologieën. Het onderwerp cyberveiligheid is ook van cruciaal belang om hackeraanvallen af te weren en de gegevens van particuliere gebruikers te beschermen.
Samenvattend laten de discussies rondom BCI’s zien dat het potentieel dat deze technologieën bieden, gepaard gaat met aanzienlijke ethische en sociale uitdagingen. Verantwoord gebruik vereist nauwe samenwerking tussen onderzoek, industrie en ethici om zowel innovatie als de bescherming van menselijke waarden te garanderen. Deze onderwerpen zullen de komende jaren cruciaal zijn om zowel de kwaliteit van leven te vergroten als om ethische principes niet uit het oog te verliezen.
Voor meer informatie kunt u terecht bij de Wübbens Stichting, PubMed en niiU.