Durchbruch in der Forschung: KI kann Gedanken lesen
Quelle: Pexels
Mittels künstlicher Intelligenz Gedanken lesen? KI Forscher des Meta Konzerns veröffentlichen am 06. Februar 2025 in ihrer Studie eine Möglichkeit aus Gehirnaktivitäten mittels Einsatz von künstlicher Intelligenz Gedanken in Textform zu bringen. Deren Modell Brain2Qwerty bringt mit einer 80% Genauigkeit Gedanken zu Papier und erzielt damit einen Rekordwert neurologischen KI Forschung.
Bei dem Projekt Brain2Qwerty handelt es sich um eine neurologische Anwendung von künstlicher Intelligenz mit dem Ziel Aktivitäten im Gehirn zu messen und diese verlässlich in Textform umzuwandeln. Dieser Prozess findet unter einem nicht invasiven Ansatz statt indem Gehirnaktivitäten durch Tippen auf einer Tastatur ausgelöst und aufgezeichnet werden sowie anschließend mittel künstlicher Intelligenz in Textform umgewandelt werden. In einem ausgereiftem Status könnte eine solche Technologie massive Fortschritte einerseits in der Medizin, aber auch in der Wirtschaft vor allem in Anwendungen der personalisierten Kommunikation haben.
Was steckt dahinter?
Die angewendete Methode kombiniert die nicht invasive Aufnahmen von Gehirnaktivitäten mit einer Deep Learning Architektur und einem vortrainiertem character-level Language Modell. Zusätzlich zu bisher üblichen Gehirnaktivitätenmessung in Form von EEG (Elektroenzephalographie) wird eine weitere Methodik, das MEG (Magnetoenzephalographie) eigesetzt. Damit können elektrische sowie magnetische Impulse berücksichtigt werden.
Die künstliche Intelligenz basiert auf einer neuen Deep-Learning-Architektur, die von Meta unter dem Namen Brain2Qwerty entwickelt wurde. Diese Architektur verwendet das EEGNet-Modell, um aus den Messergebnissen von EEG und MEG Ergebnisse in Zeichen umzuwandeln. Das Modell wurde mit 32 Probanden trainiert, die spanische Muttersprache sprechen und auditiv einen vorgegebenen Text erhalten haben, der auf einer unabhängigen Tastatur getippt werden musste. Somit wurde die Datengrundlage geschaffen. Die beiden EEG- und MEG-Messergebnisse werden dann von Brain2Qwerty in Zeichen umgewandelt. Der Einsatz von MEG in dieser Methode ermöglicht eine deutlich höhere Sicherheit der Dekodierung zu Text, wie ein Beispiel zeigt.
Vergleich Decoding von Brain2Qwerty nach Enzephalographiemethode (EEG/MEG)
Als Umgebungsumfeld ist für diese ganze Methodik derzeit noch sperriges und komplexes Equipment nötig. Teilnehmende werden mit Elektroden verkabelt und müssen unter einer halben Tonne schweren MEG Kappe sitzen, außerdem ist dafür ein eigens abgeschirmter Raum nötig, der Frei von externen Einflüssen ist. Während den Messungen dürfen Teilnehmende sich nicht Bewegen, da jede Bewegung des Kopfes das Signal stört. Kosten für die Gerätschaft belaufen sich aktuell auf Rund 2,1 Millionen US Dollar.
Bedenken der Technologie
Auf Foren, wie Reddit, äußern Nutzer Bedenken über die Möglichkeit des Gedankenlesens des Brain2Qwerty Modells von Meta. Es wird die Frage gestellt, ob solche Modelle tatsächlich in der Lage seien Gedanken zu lesen oder ob wir den Modellen zu viele Informationen geben würden. Aus unserer Perspektive stellt sich aus der Methodik und Durchführung der Studie ein Tendenz heraus. Das System beruht auf dem Auslesen der Gehirnaktivitäten des Motorkortex mittels EEG und MEG . Diese Aktivitäten können erfasst und kodiert werden. Das vollständige und sinnhafte Bilden von Sätzen wird anschließend von LLM Systemen unterstützt. Da wir in diesem Prozess Informationen aus Gehirnaktivitäten ableiten sehen wir eine Tendenz des “Gedankenlesens”, auch wenn die Wissensbasis im Training von einem LLM unterstützend wirken kann. Eine verlässliche Aussage lässt sich jedoch aufgrund des Mangels an weiteren unabhängigen Studien nicht treffen.
Um solche komplexen und nahezu alltäglichen Fortschritte in der Technik verstehen zu können, sind Grundkompetenzen über KI Systeme essentiell. Algorithmische und mathematische Grundmuster, welche sich über die breiten Anwendungsfelder von Maschine Learning erstrecken können maßgeblich zum Verständnis beitragen und weiters zu fundierten Entscheidungen in Bezug auf KI führen. In der mittlerweile nahezu alltäglichen Anwendung von vertrauensvoller KI ist es essentiell über solche Grundkompetenzen zu verfügen, wie auch der AI-Act vorsieht, um robust und sicher zu handeln.
KI-KOMPETENZ WORKSHOP
KI im Arbeitsalltag nutzen und sich vor Fakes schützen
Die Context-Verify Workshops bilden Sie und ihr Team optimal für die neue KI-Kompetenz-Verordnung aus. Profitieren Sie von unserem Fachwissen direkt aus der Entwicklungsbranche. Leicht verständlich, persönlich durchgeführt, vor Ort und digital.
Ausblick auf weitere Entwicklungen
Die Ergebnisse dieser Studie stellen definitiv neue Möglichkeiten und Forschungsfelder der Anwendung von Künstlicher Intelligenz im medizinischen Raum auf. Bis es jedoch zu einem Einsatz der Technologie in einem klinischen oder wirtschaftlichen Umfeld kommen kann, gibt es noch einige Herausforderungen zu bewältigen. Abgesehen von den hohen Kosten und der Größe der Hardware, gilt es noch ethische Fragen zur Vertrauenswürdigkeit und der robusten Anwendung zu klären. Ebenfalls agiert das jetzige System nicht in Echtzeit, da die Transformer- und Sprachmodelle auf Satzbasis funktionieren und es wurde bisher nur an kognitiv gesunden Menschen angewendet, was beides wichtige Fortschritte für die Anwendungen im klinischen Bereich sind.
Überwinden wir obige Herausforderungen und denken mutig, eröffnen sich aus unserer Sicht interessante Möglichkeiten für wirtschaftliche Anwendungen. Von maßgeschneiderte Kommunikation im Geschäftsalltag oder Marketing auf Basis von Gedankenimpulsen. Diebstahlschutz und Prävention im Handel, durch Erkennung von kriminellen Absichten, wobei KI aktuell vor allem schon in Selbstbedienungskassen eingesetzt wird. Ebenso bei Sicherheitsmaßnahmen in der Flugindustrie und Identitätsüberprüfungen, in Person oder online.
Die Technologie Rund um Brain2Qwerty basiert, wie bereits erwähnt, auf den Teil des Gehirns, der dafür zuständig ist Bewegung zu verarbeiten, wie das Tippen auf einer Tastatur. Nach diesem Modell sind daher nur Gehirnaktivitäten lesbar, welche durch physische Aktivitäten ausgelöst werden. Das beschränkt die Anwendung für motorisch beeinträchtige Personen, wo das unter anderem das Interesse der Technologie an der Inklusion dieser Menschen durch selbstbestimmte Kommunikation liegt.
Unser Fazit ist daher: Derzeit können Gedanken in Kombination mit bewusster motorischer Aktion ausgelesen und dekodiert werden, aber all unsere Gedanken, die wir nicht ungewollt preisgeben wollen, bleiben derzeit noch für Künstliche Intelligenz unter Verschluss.
Zusammenfassung
Meta-Forscher haben mit dem Modell Brain2Qwerty einen Durchbruch erzielt, indem sie Gehirnaktivitäten, die durch bewusstes Tippen ausgelöst werden, mithilfe von EEG- und MEG-Daten in Text mit 80% Genauigkeit umwandeln.
Die Methode kombiniert eine spezielle Deep-Learning-Architektur (EEGNet) mit einem vortrainierten character-level Language Model und erfordert dafür komplexe, teure und sperrige Hardware in einer kontrollierten Umgebung.
Trotz des vielversprechenden Potenzials in Medizin und personalisierter Kommunikation gibt es ethische und methodische Bedenken, da das System aktuell nur motorisch ausgelöste Gedanken erfasst und unabhängige Studien noch ausstehen.
Jorrit Kappel
Experte in den Bereichen künstliche Intelligenz, Medienkompetenz und Online-Gefahren mittels Fakes.
📧 info@context-verify.eu