In einer Rede auf dem Weltwirtschaftsforum im vergangenen Jahr argumentierte Professorin Nita Farahany, dass die Technologie des Gedankenlesens nicht nur real ist, sondern bereits eingesetzt wird. Sie sprach von Szenarien, in denen die Überwachung der Gehirnströme die Sicherheit erhöhen könnte, z.B. zur Verhinderung von Unfällen, die durch Übermüdung der Fahrer verursacht werden. Sie räumte aber auch das „dystopische“ Potenzial dieser Technologie ein, wie die obligatorische Übertragung von Gehirnsignalen in China.
So müssen chinesische Zugführer zum Beispiel eine Gehirnüberwachungsmütze tragen, um ihren Ermüdungsgrad zu überwachen. Und Unternehmen, wie Amazon und Walmart nutzen bereits die Technologie zur Überwachung der Gehirnströme.
Ist die Technologie des Gedankenlesens schon da oder ist das Weltwirtschaftsforum nur eine Panikmache? Der Gold Report wirft einen Blick darauf, wie weit die Forschung im Bereich der Gedankenlesetechnologie tatsächlich fortgeschritten ist (Veröffentlichung am 20. September 2024)
Ist die Technologie des Gedankenlesens schon da? Oder schürt das WEF die Angst?
Letztes Jahr sagte Professorin Nita Farahany in Davos auf dem Weltwirtschaftsforum („WEF“):
Wir können keine Sprache entschlüsseln und wir werden vielleicht nie vollständige Gedanken aus dem Gehirn entschlüsseln, indem wir einfache tragbare Geräte verwenden.
In diesem Jahr setzt ein Team der UCSF (University of California, San Francisco) in Kalifornien künstliche Intelligenz ein, um Worte, die bewusst gedacht werden, zu entschlüsseln und in Sprache umzuwandeln – und zwar mithilfe eines Geräts, das die Gehirnaktivität in beabsichtigte Worte übersetzt.
Nächster Schritt: Eine drahtlose Technologie, die Gehirnsignale, die Gedanken darstellen, interpretiert und sie weiterleitet … wohin?
Farahany zufolge ist dieser nächste Schritt bereits vollzogen worden. Aber ist er das? Es wurden kaum Beweise für Farahanys Behauptungen vorgelegt. Es wurde keine Datenbank aufgedeckt, die bestimmte Gehirnsignale bestimmten Wörtern zuordnet, was die Möglichkeit aufkommen lässt, dass das WEF Angst schürt und gesetzestreue Bürger dazu bringt, sich zu sorgen, ob die Regierung ihre Gedanken kennt.
Im Folgenden stellen wir weitere Einzelheiten zu Farahanys Behauptungen vor, wobei es dem Leser überlassen bleibt, ihre Zuverlässigkeit zu beurteilen.
Big Brother liest Ihre Gedanken
Farahany ist Professorin für Recht und Philosophie an der Duke University und beschäftigt sich mit den ethischen, rechtlichen und sozialen Auswirkungen neuer Technologien. Der Titel ihres Buches, „The battle for your brain: defending the right to think freely in the age of neurotechnology“ (Der Kampf um dein Gehirn: Verteidigung des Rechts auf freies Denken im Zeitalter der Neurotechnologie), prognostiziert Herausforderungen für die Freiheit des Denkens in der nahen Zukunft.
In ihrer Rede in Davos räumt sie freimütig die Vor- und Nachteile der Gedankenlesetechnologie ein, besteht aber darauf, dass sie diese nicht verbieten will – sie sieht in ihr großes Potenzial. Ihre Rede wurde von Nicholas Thompson, CEO von The Atlantic, eingeleitet, der die Technologie in glühenden Worten beschrieb:
Sie wird Sie eine wunderbare Zukunft sehen und verstehen lassen, in der wir mit Hilfe von Gehirnströmen Verbrechen bekämpfen, produktiver sein und Liebe finden können …
Milei Nials: Bereit für Gehirntransparenz? Hochgeladen am 21. Januar 2023 (30 Min.)
Farahanys Video beginnt mit einer Animation eines futuristischen Büros, in dem die Mitarbeiter Gehirnwellen-Ohrstöpsel tragen, die ihre Gehirnwelleninformationen an das Computersystem des Büros übertragen. Der Chef hat vollen Zugriff auf diese Informationen und belohnt eine Mitarbeiterin für ihre „Gehirnströme“ mit einem Leistungsbonus. Die Dinge nehmen jedoch schnell eine Wendung, als diese Gehirnmetriken von den Strafverfolgungsbehörden genutzt werden:
Eine düstere Wolke hat sich über das Büro gelegt. Neben E-Mails, Textnachrichten und GPS-Standortdaten hat die Regierung auch die Gehirndaten der Mitarbeiter aus dem vergangenen Jahr angefordert. Sie haben stichhaltige Beweise dafür, dass einer Ihrer Mitarbeiter einen massiven Überweisungsbetrug begangen hat, und nun suchen sie nach synchronisierten Gehirnaktivitäten zwischen Ihrem Mitarbeiter und den Personen, mit denen er zusammengearbeitet hat.
Sie wissen zwar, dass Sie unschuldig sind, aber insgeheim haben Sie mit ihm an einem neuen Start-up-Unternehmen gearbeitet. Das ist ein Schock! Nehmen Sie die Ohrstöpsel ab.
Wie können wir dem „Wischen“ entkommen?
Die Animation endet an dieser Stelle, und Farahany beginnt ihren Vortrag mit dem Hinweis, dass diese Technologie nicht nur bereits existiert, sondern auch bereits genutzt wird. Sie fügt hinzu, dass viele Menschen bereits darauf vorbereitet sind, sie als Teil des Lebens zu akzeptieren, da so viele von uns Apple Watches und andere tragbare Geräte verwenden, die bestimmte unserer internen Prozesse überwachen.
Während der Debatte zwischen Trump und Harris vermuteten einige, dass die von Harris getragenen Ohrringe in Wirklichkeit Sender waren, die ihr bei ihren Antworten halfen. Ohrring-Sender gibt es bereits. Auch andere Wearables wie Stirnbänder, Hüte, Ohrstöpsel und sogar solche, die wie Tattoos hinter den Ohren aussehen, können Gehirnsignale nicht nur übertragen, sondern auch entschlüsseln.
Das ‚Wischen‘ (Swipen) mit dem Verstand, um eine nahtlose Interaktion mit der Technologie zu schaffen, ist Teil einer aufregenden und vielversprechenden Zukunft. Aber auch eine potenziell beängstigende Zukunft. Wir können komplexe Gedanken noch nicht buchstäblich entschlüsseln, aber wir können schon eine ganze Menge dekodieren.
Es ist für Ihre eigene Sicherheit
Ihr erstes Beispiel für das „Versprechen“, das die neuen Technologien mit sich bringen, ist „ein sicherer Arbeitsplatz“. Durch die Überwachung der Gehirnströme von Lkw-Fahrern könnten beispielsweise Unfälle aufgrund von Übermüdung der Fahrer vermieden werden (was auch für Piloten und Zugführer gelten würde).
Mithilfe einer einfachen Mütze mit integrierten Elektrosensoren, die die Wachsamkeit von 1 bis 5 bewerten, erhält der Arbeitgeber wichtige Informationen in Echtzeit.
Bemerkenswert ist, dass laut Farahany nicht der Arbeitnehmer, sondern der Arbeitgeber Zugang zu den Gehirnmetriken erhält. Die Gesellschaft muss vor rücksichtslosen Lkw-Fahrern geschützt werden, die stundenlang unterwegs sind und tödliche Unfälle verursachen. Das ist das unausgesprochene Argument für den Einsatz dieser Technologie.
Es scheint ihr nicht in den Sinn gekommen zu sein, dass die Fahrer in der Regel nicht aus Spaß stundenlang fahren, sondern weil ihr Gehalt davon abhängt, dass die Waren rechtzeitig am Zielort ankommen, und, wenn ihre Chefs unrealistische Ziele vorgeben, eine bestimmte Anzahl von Stunden am Stück zu fahren, die einzige Möglichkeit ist, dies zu erreichen.
Es wird Arbeitgebern helfen, noch mehr Rücksicht auf ihre Mitarbeiter zu nehmen
Farahany beschreibt auch ein anderes Szenario, in dem ein offener Zugang zu den Gehirnmetriken der Mitarbeiter eine sicherere Umgebung für alle schaffen könnte: In einem Lagerhaus, in dem die Gehirnsensoren der Arbeiter zeigen, dass sie übermüdet sind, und Roboter, die von ihren mitfühlenden Arbeitgebern eingesetzt werden, die Bedingungen anpassen, um ihnen genug Zeit und Ruhe zu geben, um durchzuhalten.
Auch hier scheint es ihr nicht in den Sinn gekommen zu sein, dass die Arbeitgeber dieselben Informationen über die Hirnmetrik nutzen könnten, um erschöpfte Mitarbeiter auszusortieren und durch robustere Arbeitnehmer zu ersetzen. Allerdings räumt sie das „dystopische“ Potenzial der Gehirnüberwachung ein und weist darauf hin, dass Zugführer in China bereits verpflichtet sind, spezielle Mützen zu tragen, die ihre Gehirnsignale an ihre Arbeitgeber übermitteln, die so ihren Ermüdungsgrad überwachen können.
Dies könnte etwas sein, das wir als Gesellschaft annehmen sollten. Wenn sie gut gemacht ist, ist die Neurotechnologie außerordentlich vielversprechend. Schlecht umgesetzt, könnte sie zur bedrückendsten Technologie werden, die wir je eingeführt haben.
Weniger Stress am Arbeitsplatz
Farahany nennt auch Beispiele für Technologien zur Überwachung der Gehirnströme, die in den Vereinigten Staaten eingesetzt werden. Amazon hat bereits mit solchen Geräten experimentiert und sie an Lagerarbeitern getestet. Auch Tesco und Walmart haben damit experimentiert, was zu Protesten der Mitarbeiter führte und ihre Arbeitsmoral untergrub. Ziel ist es nämlich, Zeitverschwendung am Arbeitsplatz und ungeplante Pausen zu erkennen.
Während der Pandemie nutzten viele Unternehmen, die auf virtuelle Büros umgestiegen sind, irgendeine Form der Überwachung, um ihre Mitarbeiter im Auge zu behalten.
Sie hebt Microsoft für seine Studie über Mitarbeiter hervor, die Zoom für Besprechungen nutzen. Sie ergab, dass virtuelle Meetings stressiger sind als solche, die persönlich abgehalten werden. Dies liegt zum Teil an den unterschiedlichen Hintergründen auf den Bildschirmen der Mitarbeiter. Die Vereinfachung der Hintergründe war eine einfache und kostenlose Maßnahme, um das Stressniveau zu senken. Man kann sich vorstellen, dass dies nicht die einzige Maßnahme war, die Microsoft aufgrund der Überwachung der Gehirnströme ergriffen hat.
Und es wird Sie produktiver machen!
Während sie ein Bild von futuristisch aussehenden Ohrstöpseln auf den Bildschirm beamt, beschreibt Farahany:
… der neueste Weg, die Aufmerksamkeit zu überwachen, ist ein Gerät wie dieses: Ohrhörer, die im Laufe dieses Jahres [d.h. Ende 2023] auf den Markt kommen und die Gehirnwellenaktivität aufzeichnen können. So kann man feststellen, ob jemand aufmerksam ist oder seine Gedanken schweifen lässt… Es hat sich herausgestellt, dass man nicht nur feststellen kann, ob jemand aufmerksam ist, sondern auch, auf welche Art von Dingen er achtet. Wenn man dies mit anderen Arten der Überwachung kombiniert, wird die Leistung ziemlich präzise.
Sie beschreibt auch eine neue Technologie, die von einem Labor am MIT entwickelt wurde und die „einem buchstäblich einen Kick gibt, wenn die Gedanken abschweifen“.
Gehirnimplantate, die die Macht des Sprachgebrauchs ermöglichen
All diese Entwicklungen unterstützen Farahanys Behauptung, dass „immer mehr von dem, was im Gehirn ist, transparent werden wird“. Die Dinge entwickeln sich so schnell, fügte sie hinzu, dass die einschlägigen Rechtsvorschriften „nicht Schritt halten können“. Letztes Jahr stellte sie fest, dass „wir Sprache nicht entschlüsseln können“, und inzwischen ist dies bereits der Fall, wie in einem Artikel im JAMA Network (Journal of the American Medication Association) berichtet wird.
Der Artikel basiert auf einem Interview mit Dr. Edward Chang, Co-Direktor des Centre for Neural Engineering and Prostheses an der UCSF. Er und sein Team behaupten, dass es ihnen gelungen ist, eine Technologie zu entwickeln, die es Menschen mit Aphasie (die ihre Sprachfähigkeit, meist aufgrund eines Schlaganfalls, verloren haben) ermöglicht, zu „sprechen“.
Am Anfang ging es darum, die grundlegenden Prinzipien zu verstehen, nach denen die elektrische Aktivität in den Neuronen die Muskeln im Vokaltrakt steuert. So entstehen all die verschiedenen Laute, die wir beim Sprechen erzeugen. Ich meine damit, wie die Lippen, der Kiefer und die Zunge den Atem formen, um Klänge wie Konsonanten, Vokale und sogar die Intonation der Stimme zu erzeugen, wenn wir sprechen.… es wurde es sehr, sehr deutlich, dass dies potenzielle medizinische Anwendungen für Menschen haben würde, die die Fähigkeit zu kommunizieren aufgrund von Lähmungen verloren haben.
Changs Team hat eine Reihe von Techniken zur Entschlüsselung von Gehirnsignalen eingesetzt, darunter auch Untersuchungen, die während einer Gehirnoperation durchgeführt wurden:
Ich habe mich auf Gehirnoperationen spezialisiert, bei denen die Patienten wach sind und wir eine Sprachkartierung vornehmen. Ein Teil meines Labors befindet sich buchstäblich im Operationssaal, wo wir ständig lernen und verstehen, wie das Gehirn Wörter hervorbringt. Wir testen dies und schützen es vor allem bei Operationen, wenn wir entweder die Stelle entfernen müssen, die Anfälle verursacht, oder einen Gehirntumor.
Das ist es, was wir „Brain Mapping“ nennen, und es ist ein Kernstück meiner klinischen Praxis, das mit unseren umfassenderen Zielen synergetisch ist.
Der nächste Schritt war die Digitalisierung des Dekodierungsprozesses mit Hilfe von Elektroden, die am Gehirn angebracht wurden:
Nachdem wir herausgefunden hatten, dass es eine eindeutige Korrelation zwischen den Gehirnaktivitätsmustern und bestimmten Sprachlauten gab, beantragten wir die Genehmigung für eine Studie und fragten die FDA, ob wir ein neuartiges Gerät verwenden dürften. Dabei handelt es sich im Wesentlichen um eine Elektrodenanordnung, die auf der Gehirnoberfläche angebracht wird.
Die Elektrodenanordnung ist mit einem Anschluss verbunden, der über 253 Kanäle verfügt, die die Daten der Gehirnaktivität an einen Computer weiterleiten, der die Gehirnsignale analysiert und KI einsetzt, um die Gehirnaktivität in bestimmte beabsichtigte Wörter oder Sprachlaute, oder sogar Gesichtsbewegungen von Avataren zu übersetzen.
Von 256 verschnörkelten Strichen zu 70 Wörtern pro Minute
Im Mittelpunkt dieses Prozesses steht das maschinelle Lernen, eine künstliche Intelligenz, die in der Lage ist, riesige Datenmengen zu verarbeiten, Muster zu erkennen, zu interpretieren und bestimmte Gehirnströme mit Wörtern zu verknüpfen:
Das Geheimnis dabei ist … maschinelles Lernen. 99% unserer Zeit hat nichts mit der Operation oder dem Gerät selbst zu tun, sondern mit dem Verstehen der Daten. Wenn man auf den Bildschirm schaut, sieht es aus wie 256 verschnörkelte Linien, das sind die Gehirnströme … [Wir] verwenden rekurrente neuronale Netze, um diese Abfolge von Datenpunkten, die wie verschnörkelte Linien aussieht, in Worte zu übersetzen.
Chang betont, dass die Interpretation auf den Gehirnströmen der Teilnehmer beruht, die tatsächlich Wörter auf einem Bildschirm lesen, und nicht nur zufällige Gedanken denken:
Die grundlegende Aufgabe besteht darin, die Teilnehmer aufzufordern, einen Text auf einem Bildschirm zu lesen – und nicht nur darüber nachzudenken, was sie sehen, sondern tatsächlich zu versuchen, die Worte zu sagen. Sie müssen bewusst versuchen, sie auszusprechen.
Er hat mit mehreren Aphasiepatienten gearbeitet, von denen zwei seit über 15 Jahren nicht mehr sprechen konnten:
Unser letzter Teilnehmer konnte mit diesem Gerät bis zu 70 Wörter pro Minute sprechen. Normales Sprechen liegt bei etwa 150 Wörtern pro Minute, und wir haben noch viel Spielraum für Verbesserungen. Aber es war schnell und der Wortschatz lag bei über tausend Wörtern. Wir haben es auf 30.000 Wörter modelliert, wo es weiterhin gute Leistungen erbrachte.
Von 15 Jahren als stummer Querschnittsgelähmter zu zwei Wochen, die das Sprachvermögen wiederherstellten
Wie Farahany hebt auch Chang die unglaublichen Sprünge hervor, die die Technologie in den letzten Jahren gemacht hat.
Dieses Feld bewegt sich so schnell, dass es für mich schwer ist, Vorhersagen zu treffen. Ich konnte nicht einmal vorhersagen, dass wir das Leistungsniveau des letzten Jahres erreichen würden. Und die Algorithmen, die wir jetzt einsetzen, werden immer leistungsfähiger. Vor 5 Jahren hatten wir diese Werkzeuge noch nicht. Und jetzt kommen wir sehr, sehr nahe an das heran, was wir uns für etwas wünschen würden, das klinisch verfügbar ist. Am Anfang hat es ein paar Monate gedauert. Bei unserem letzten Teilnehmer dauerte es praktisch 2 Wochen, um die Algorithmen zu trainieren.
Und wie Farahany unterstreicht auch Chang das unglaubliche Potenzial der Technologie, die denjenigen, die ihre Ausdrucksfähigkeit wiedererlangen, ein ganz anderes Leben verspricht:
Ich glaube, unser Hauptaugenmerk liegt wirklich auf der vollen Entfaltung … die Menschen sollen wieder zu dem werden, was sie sind …
Bei unserer letzten Studienteilnehmerin hatten wir die einmalige Gelegenheit, ein einstündiges Video von ihrer 20 Jahre zurückliegenden Hochzeit anzusehen. Wir konnten die KI auf ihre Stimme vor der Verletzung trainieren. Es handelte sich also nicht um irgendeine vorgefertigte Stimme aus der Konserve, die Sie in Ihrem Computer haben. Es war tatsächlich ihre Stimme, die für dieses Modell trainiert wurde, und das ist heute mit KI möglich. Bei dem Avatar konnte sie die Haarfarbe und die Augenfarbe selbst bestimmen.
Wir sprechen hier wirklich von einer ganz neuen Ebene der Personalisierung und des Ausdrucks… Sogar die Intonation der Stimme ist etwas, das wir richtig hinbekommen wollen.
Drahtloses Gedankenlesen
Farahany wurde auf dem WEF gefragt, ob Gehirnmetriken ohne den Einsatz eines tragbaren Geräts gemessen werden könnten, und er antwortete rundheraus: „Nein.“ Jetzt, ein Jahr später, arbeiten Chang und sein Team daran, die Fähigkeiten der von ihnen entwickelten Technologie zu verbessern, mit der Absicht, sie vollständig drahtlos zu machen:
Wir arbeiten an der Elektro- und Hardwaretechnik, um daraus ein vollständig integriertes drahtloses System zu machen, so dass man nicht mit einem Kabel an einem Anschluss im Skalpell verbunden sein muss. Es wird alles drahtlos an einen Empfänger übertragen und auch auf diese Weise mit Strom versorgt.
Auf die Frage, ob die Technologie zur Dekodierung von Gedanken verwendet werden könnte, die nicht „mental verbalisiert“ werden, unterschied Chang zwischen der Art der verwendeten Gehirnmetrik:
Ich glaube, wir haben gezeigt, dass wir die freiwillige Absicht einer Person, zu sprechen, entschlüsseln können. Aber wie ich schon sagte, funktionieren einige der Dinge, die wir ausprobiert haben, bei denen die Leute nur über etwas nachgedacht haben, nicht so gut.
Ein Grund dafür ist, dass „verbalisierte“ Gedanken offenbar in einem anderen Teil des Gehirns verarbeitet werden, als andere Arten von Gedanken:
Die Elektrodensensoren am Gehirn zapfen nicht unbedingt den Ort an, an dem sich die zufälligen Gedanken im Gehirn abspielen. Sie zeichnen wirklich den Teil des Gehirns auf, der den Stimmbandmuskel steuert.
Aber Chang sagt wie Farahany voraus, dass die Dinge in Zukunft wahrscheinlich noch viel weiter gehen werden, was zu komplexen Fragen des Datenschutzes führen wird:
Bei der Art und Weise, wie wir unsere Arbeit derzeit konzipiert haben, geht es darum, was wirklich freiwillig ist, was vom Einzelnen ausgedrückt werden soll. Gleichzeitig zeigt es uns aber auch, dass es in Zukunft möglicherweise möglich sein wird, darüber hinauszugehen, zu Dingen, die privater sind, zu innerer Sprache, zum Beispiel, zu inneren Gedanken vielleicht sogar.
Wem kann man das anvertrauen?
Farahany wendet sich an ihr Publikum und fragt: „Sind Sie bereit dafür?“ Sie stellt eine Zukunft vor – eine sehr nahe Zukunft – in der „mehr und mehr von dem, was im Gehirn ist, transparent wird“.
Das kann etwas sein, das das Potenzial der Menschheit freisetzt. Ich glaube, dass es einen Weg in die Zukunft mit dieser Technologie gibt, aber er besteht darin, sie in die Hände der Arbeitnehmer zu legen und sie in die Lage zu versetzen, sie als Wahlmöglichkeit zu nutzen und sie nicht als Maß für die Gehirnmetrik zu verwenden, um sie zu entlassen oder einzustellen, oder sie zu diskriminieren.
Sie räumt zwar ein, dass es eine Herausforderung sein wird, die Arbeitgeber davon zu überzeugen, die Freiheit der Gedanken und die Privatsphäre der Gehirndaten zu respektieren. Doch scheint sie zu glauben, dass die Förderung einer weit verbreiteten Achtung des „Grundrechts auf das, was es bedeutet, ein Mensch zu sein“, ausreichen könnte, um die Menschen zu schützen:
Ich glaube, wir müssen damit beginnen, ein Recht auf kognitive Freiheit anzuerkennen, ein Recht auf Selbstbestimmung über unsere Gehirne und mentalen Erfahrungen.
Was weder Chang noch Farahany ansprechen, sind die inhärenten Grenzen der „Gedankenlese“-Technologie, auch wenn die von Farahany gezeigte Animation sehr reale Probleme aufwirft: Wie soll beispielsweise die unschuldige Mitarbeiterin des verhafteten Angestellten nachweisen, dass ihre Gehirndaten zwar mit denen des mutmaßlichen Verbrechers übereinstimmen, sie aber nicht tatsächlich mit ihm gemeinsame Pläne schmiedete?
Auch Chang ist in Bezug auf einige Schlüsselaspekte der Technologie, die er entwickelt, nicht gerade mitteilsam. Auf die Frage seines Interviewpartners, wie er überprüfen kann, ob die Ergebnisse wirklich die von seinen aphasischen Probanden projizierten Gedanken widerspiegeln, weicht er der Frage aus.
Zweifellos wird ein Mensch, der eine neurologische Verletzung erlitten und die Fähigkeit zu sprechen verloren hat, die Chance ergreifen, sie wiederzuerlangen. Selbst wenn die Technologie unvollkommen ist und selbst wenn sie das Risiko birgt, dass nicht nur seine Worte, sondern auch seine Gedanken für andere transparent werden.
Quelle: The Exposé
Telegram zensiert nicht! Wenn du diese Information wichtig findest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)