top of page
Lösungen
Branchen
Insights
Warum arago?

MENÜ

AutorenbildProf. Dr. Birgit Spies

Was künstliche Intelligenz nicht kann

Utopien überschlagen sich, kritische Gedanken werden kaum zur Kenntnis genommen: Mit ChatGPT erobert ein Programm des maschinellen Lernens zumindest die Köpfe. Alte Fragen im Zusammenhang mit Lernen, Wissen und Bildung werden wieder aktuell:


• Was kann ich noch (sicher) wissen?

• Welches Wissen brauche ich (für die Zukunft)?

• Was muss ich (noch) lernen?


Bild: programming background collage@ Freepik

Studierende und ich sind unlängst auf einer »Erkundungstour« zum Thema Künstliche Intelligenz und Lernen mit ChatGPT unterwegs gewesen. Wir wollten wissen, was (jetzt schon) funktioniert, an welchen Stellen die KI weiterhelfen kann und an welchen Stellen kritisches Denken gefragt ist.


Unsere Ergebnisse sollen hier kurz zusammengetragen sein ohne den Anspruch zu erheben, alle Möglichkeiten und Kritikpunkte berücksichtigt zu haben:


  • Programmierung: Anfragen zum Programmcode für eine private technische Anlage oder einen neuen Button in WordPress hat die KI sehr gut gelöst.

  • Einladungen formulieren: Dies funktionierte ebenfalls sehr gut. Auf Nachfrage konnte die Einladung in unterschiedliche Sprachstile umformuliert werden (neutral, fröhlich…).

  • Ideensammlung für Zeitmanagement und Forschungsfragen: Hier war die KI ebenfalls sehr hilfreich und schlug viele sinnvolle Möglich- keiten vor.

  • Essay schreiben: Das Essay zum Thema Kinderschutz, mit Quellenangaben und passender Zitation, wirkte beim ersten Lesen sehr ansprechend. Jedoch war es auf den zweiten Blick erstaunlich »farblos« und »substanzlos«. Das Essay schien ein großer Brei aus aktuell »angesagten« Worten zu sein: Es glitt förmlich durch die Finger bzw. den Kopf.

  • Konkrete Fachfragen: Hier wurde eine zufriedenstellende Antwort gegeben, die als Ausgangspunkt für eigenes Nach-Denken hilfreich schien.


Interessant sind die Antworten, die uns ChatGPT auf die Frage, was es nicht kann, selbst gab. Hier der Originalauszug aus dem Chatverlauf:


(Zitat Anfang)


WAS KANN KI NICHT?

Antwort ChatGPT:


Obwohl KI in vielen Bereichen erstaunliche Fortschritte gemacht hat, gibt es immer noch viele Dinge, die KI nicht kann oder die es derzeit nicht effektiv kann. Hier sind einige Beispiele:


  1. KI kann nicht kreativ sein: KI kann auf der Grundlage von vorhandenen Daten und Mustern Entscheidungen treffen, aber es kann keine neuen Konzepte oder Ideen aus dem Nichts generieren.

  2. KI kann keine moralischen Entscheidungen treffen: KI kann nicht zwischen richtig und falsch unterscheiden, es sei denn, es wurde speziell darauf programmiert.

  3. KI kann nicht menschliche Emotionen erkennen: Obwohl KI-Systeme trainiert werden können, um bestimmte Emotionen zu erkennen, können sie keine subtilen menschlichen Emotionen interpretieren und verstehen.

  4. KI kann keine menschlichen Beziehungen aufbauen: KI kann keine persönliche Erfahrung und menschliche Interaktion ersetzen. Es ist auch nicht in der Lage, menschliche Verbindungen zu knüpfen oder Empathie zu zeigen.

  5. KI kann keine Entscheidungen treffen, die über den Rahmen ihrer Programmierung hinausgehen: KI-Systeme können nur Entscheidungen auf der Grundlage von Daten treffen, auf die sie zugreifen können, und sie können nicht über den Rahmen ihrer Programmierung hinausgehen, um unvorhergesehene oder neue Probleme zu lösen.


Es ist wichtig zu beachten, dass KI sich ständig weiterentwickelt und dass diese Grenzen möglicherweise in Zukunft überwunden werden können.

(Zitat Ende)




Diskussionswürdig erschien uns der obenstehende Satz: »Es ist wichtig zu beachten, dass KI sich ständig weiterentwickelt und dass diese Grenzen möglicherweise in Zukunft überwunden werden können.« Ist dies eine Verheißung, eine Drohung oder eine ganz »normale evolutionäre Entwicklung«, die Programmierer für uns zu verwirklichen meinen?


Also doch »Digital first. Bedenken second« (1)? Wir probieren erst einmal aus und schauen dann, was passiert? Kreativ sein können und Neues hervorbringen, Emotionen zeigen, erkennen und darauf reagieren zu können, moralische Entscheidungen treffen zu können – diese u.a. sind sehr menschliche Eigenschaften. Sind sie es uns auch wert, ge-wert-schätzt zu werden, uns dafür anzustrengen, über uns hinauszuwachsen, bereit zu sein zu scheitern? Oder werden wir in naher Zukunft für uns anstrengende und uns unangenehme Dinge, Entscheidungen und Handlungen auslagern und dies womöglich noch mit wirtschaftlichem Interesse begründen?


Facebooks Metaverse wird gerade zu Grabe getragen (2). Mit großen Versprechungen ist das Projekt gestartet. Nun sind die Menschen wohl doch nicht in erhoffter Zahl in die neue Version des Second Life eingetreten. Reales Leben ist anstrengend, Lernen ebenso. Da gibt es Probleme, da muss man sich mit Menschen und mit Wissen auseinandersetzen, bekommt mal mehr, mal weniger Zuspruch – und kann doch daran wachsen.


Es ist ein Unterschied, ob


»1. Maschinen immer mehr wissen und der Mensch dabei immer dümmer wird, weil er Wissen ‚auslagert‘, oder ob


2. der Mensch ihm innewohnende kognitive Gesetzmäßigkeiten in die Apparate verlegt, sie dabei aber eher in seinem Sinne nutzt« (3)


Im letzteren Fall ist der Mensch souverän. Dies könnte mit Blick auf Lernen, Wissen und Bildung unsere Aufgabe sein. Poledna und Schark formulieren angesichts der derzeitigen Entwicklung:


»Wenn mit Google argumentiert werden konnte, dass Faktenwissen nicht mehr wichtig ist, wird durch ChatGPT kompetenzorientierter Unterricht ad absurdum geführt« (4). Und sie stellen weiter die Frage:

»Was wollen wir für uns und unsere Kinder? Wie soll Bildung und Schule aussehen, die junge Menschen zum »selbsttätigen Bildungserwerb (…), zu selbständigem Urteil, sozialem Verständnis« anleitet und sie befähigt, »[…] an den gemeinsamen Aufgaben der Menschheit mitzuwirken«? (4).


Hierauf Antworten zu finden und Medien und Künstlicher Intelligenz souverän einen Platz im Leben zuzuweisen, anstatt uns von einer unreflektierten Welle technischer Begeisterung fortreißen zu lassen – dies ist eine dringliche Aufgabe unserer Zeit. Lankau (5) macht mit dem KI-Memorandum einen ersten Vorschlag. Eine Diskussion ist dringend erforderlich.

Birgit Spies (2023). Was Künstliche Intelligenz nicht kann. In: Bildung – Mensch – Medien. Abgerufen am 11/05/2023 unter https://bildung.hypotheses.org/1169.

Über die Autorin:


Portraitfoto: Annette Schrader, https://www.annette-schrader-fotografie.de


Frau Prof. Dr. Birgit Spies hat mehr als 25 Jahre mediendidaktische Erfahrung und umfassendes praktisches Know-how aus dem IT-, Medien- und Bildungsbereich. Sie ist Professorin für Bildung und Digitalisierung in Hamburg. Frau Prof. Dr. Birgit Spies hält dort u.a. Vorlesungen zu Medienpädagogik, Medienpsychologie und zu Mediendidaktik. arago Consulting unterstützt und berät sie seit vielen Jahren als Mitglied des Beirats in den Bereichen E-Learning und Blended Learning. Als Keynote-Speakerin zu dem Thema Digitalisierung bringt sie ihr Praxiswissen in Vorträgen, Workshops und Seminaren verständlich auf den Punkt.


Mehr über Birgit Spies erfahren Sie unter https://www.prof-birgit-spies.de.


Kontakt: prof-birgit-spies@hamburg.de


Quellen:

(1) GBW 2023: Und wieder ruft der (Ro)Bot, grüßt das Murmeltier. https://bildung-wissen.eu/fachbeitraege/und-wieder- ruft-der-robot-gruesst-das-murmeltier.html

(3) Schmitt 2021: Postdigital. Medienkritik im 21. Jahrhundert. S. 75

(4) Poledna, Schark 2023: Künstliche Intelligenz wird schulreif.



11 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page