Kann es jemals „Künstliche Kreativität“ (KK) geben?

von Dietmar Zobel

Auf diesem anspruchsvollen Gebiet haben wohl die meisten Menschen keine Spezialkenntnisse. Versuchen wir uns deshalb im Netz eine grobe Übersicht zu verschaffen. Dabei fällt auf, dass nach erfolgter Eingabe des Begriffes „Künstliche Kreativität“ („KK“) automatisch fast nur Einträge zum Thema „Künstliche Intelligenz“ („KI“) erscheinen.
Zunächst sei klargestellt, dass die Begriffe Intelligenz und Kreativität unterschiedliche Eigenschaften bzw. Fähigkeiten beschreiben, weshalb sie besser nicht synonym gebraucht werden sollten. Ich kenne außerordentlich intelligente, sehr gut ausgebildete Menschen, denen es ganz offensichtlich an Kreativität mangelt. Sie können mit ihrem umfangreichen
Wissen nicht allzu viel anfangen, wenn ungewöhnliche Verknüpfungen zwischen den verfügbaren Wissenselementen gefragt sind.
Kein Erfinder arbeitet im luftleeren Raum, sondern auch er operiert mit den jedermann verfügbaren Bauelementen der Wirklichkeit. Im Gegensatz zum „nur“ intelligenten Menschen ist er jedoch in der Lage, besonders überraschende Verknüpfungen herzu-stellen, und zwar auch dann, wenn sein Wissen lückenhaft ist. Er kann also neues Wissen schaffen, ohne das konventionelle Wissen völlig zu beherrschen. Somit sollte bereits der Umstand, dass im Internet der entscheidende Unterschied zwischen den Begriffen Intelligenz und Kreativität stillschweigend unterschlagen wird, uns misstrauisch machen. Hinzu kommt die Beobachtung, dass die wenigen Einträge, die sich expressis verbis
mit Künstlicher Kreativität befassen, fast nur die Bereiche Design und Bildende Kunst betreffen. Hingegen habe ich nichts wirklich Anspruchsvolles im Zusammenhang mit wissenschaftlich-technischer oder erfinderischer Kreativität finden können.
Nun sind zwar die Fortschritte auf dem Gebiet der so genannten „Künstlichen Intelligenz“ („KI“) beeindruckend, jedoch sollten wir im beschriebenen Zusammenhang nicht der Illusion verfallen, die Entwicklung führefrüher oder später automatisch zur Künstlichen Kreativität.
Befassen wir uns deshalb zunächst mit den entscheidenden Unterschieden zwischen der Arbeitsweise des menschlichen Gehirns und der eines heutigen Computers. Entgegen einem verbreiteten Vorurteil ist unser Gehirn nicht etwa ein Supercomputer, sondern es arbeitet nach völlig anderen Prinzipien, hat deshalb spezifische Fähigkeiten, und dem entsprechend auch spezifische Defizite.
Während unser heutiger Computer digital arbeitet, d. h. einen Rechenschritt nach dem anderen macht, und dies sagenhaft schnell, so arbeitet unser Gehirn analog und parallel. Es kann Probleme umfassend beurteilen, mit Querverbindungen und sachfernen Assozia-tionen – bewusst oder auch unbewusst – arbeiten, nicht nur gemäß „ja“ und „nein“, sondern auch in den Kategorien „vielleicht“ oder „ein bisschen“ denken. Dies wird, heute noch recht unvollkommen, mittels fuzzy logic zu simulieren versucht. Auch können die gestellten Ziele vom Menschen während der Bearbeitung eines Themas den Umständen angepasst und modifiziert werden. Der Hauptunterschied dürfte aber – abgesehen von der völlig
unterschiedlichen Rechentechnik – darin bestehen, dass der Computer keinerlei Bewusst-sein hat, keine Gefühle und Bedürfnisse kennt, und grundsätzlich nicht mit vagen Ahnungen unklarer Provenienz operiert. Intuition ist ihm – systembedingt – völlig fremd. So ist denn auch das berühmte „Bauchgefühl“ rein menschlich.
Bekanntlich arbeitet ein Computer mit Programmen, d. h. er ist in seinen Arbeitsmöglich-keiten auf den Umfang und die inhaltliche Ausrichtung des jeweiligen Programms beschränkt. Auch wenn es sich um ein sehr gutes, umfangreiches – inzwischen sogar selbstlernendes – Programm handelt, kann nicht damit gerechnet werden, dass Assoziationen zu beliebigen Gebieten des menschlichen Wissens zustande kommen.
Selbst wenn das Programm, was eines Tages vielleicht denkbar wäre, das gesamte Weltwissen enthielte, änderte das nichts, da die Art des Umgangs mit diesem Fakten-wissen völlig verschieden ist, wenn man den Algorithmus mit dem menschlichen Gehirn vergleicht.
In seinem bemerkenswerten Buch „HIRNRISSIG – Die 20,5 größten Neuromythen, und wie unser Gehirn wirklich tickt“ hat Beck (2016) die entscheidenden Merkmale aus neurobiologischer Sicht detailliert abgehandelt. Becks Kernaussagen lauten: „…ist klar geworden, wie das Gehirn rechnet. Nämlich nicht mit schrittweisen Algorithmen, sondern parallel im Netzwerk. Der Unterschied könnte fundamentaler nicht sein: In einem Computer gibt es Hardware (zum Beispiel die Halbleiterbausteine auf einem Chip) und Software (die
Computerprogramme). In einem Gehirn ist das anders. Denn … dort sind Hard- und Software dasselbe…. Das bedeutet konkret: Im Computer gibt es eine Recheneinheit (einen Prozessor), die die Software, die Daten, bearbeitet. Daten sind elektronisch gespeicherte Zeichen, üblicherweise eine Abfolge von Nullen und Einsen… Damit man diese Ziffern auch
wiederfindet, werden sie an einem bestimmten Ort platziert, sie erhalten eine Adresse. Dafür gibt es auf dem Computer eine Festplatte mit einem begrenzten Speicherplatz…. Im Gehirn ist das komplett anders. Hardund Software sind dasselbe, also gilt das auch für die Daten und deren Adressen. Hinzu kommt: Daten im Computer haben per se keinen Sinn.
Damit daraus eine Information wird, müssen sie interpretiert werden. Die Ziffernfolge „46244“ könnte die Postleitzahl von Bottrop-Kirchleiten sein oder die Zahl der promovierten Mathematiker in diesem Ort. Der Computer hat jedenfalls keine Ahnung, was Sache ist.
Auch das ist im Gehirn anders. Wir speichern Daten (z. B. Ziffernfolgen) ja nur dann ab, wenn wir etwas damit anfangen können……Das ganze Gehirn, das gesamte Netzwerk, speichert Informationen, indem es die Nervenzellkontakte so anpasst, dass ein Aktivitätsmuster (eine Information) leichter ausgelöst werden kann“ (Beck 2016).
Sodann behandelt Beck im Kapitel „Das Gehirn – unbegrenzt und doch
endlich?“ die Frage der Speicherkapazität: „Gegenwärtig geht man davon aus, dass es im erwachsenen Gehirn etwa 80 Milliarden Nervenzellen gibt. Jede Nervenzelle ist dabei im Durchschnitt mit 10 000 anderen Zellen verbunden. Ergibt 800 Billionen Verknüpfungen. Zur Vereinfachung nehmen wir mal an, dass eine Verknüpfung entweder „an“ oder „aus“ ist. In diesem Fall gibt es etwa…10 hoch 24 Milliarden Möglichkeiten, wie die Nervenzellen gerade aktiv sein können. Schon das ist unvorstellbar, doch die Zahl der Möglichkeiten, die einzelnen Synapsen zu aktivieren, ist sogar noch größer und liegt bei grob gerundeten 10 hoch 241 Billionen! Das ist eine Zahl mit 241 Billionen Nullen. ……Im gesamten
Universum gibt es schätzungsweise 10 hoch 24 Sterne, auf der Erde 10 hoch 50 Atome – Kinkerlitzchen im Vergleich zur Aktivitätsvielfalt im Gehirn.

[Hinweis des Admin: So eingängig sind diese Zahlen nicht, wenn auch zweifelsfrei beeindruckend in der Größe fürs Gehirn; aber wenn nur ein Atom pro Verbindung einer Synapse für ihre Materialisierung benötig würde, würde die Anzahl der Atome pro Gehirn die der Erde weitübersteigen?! ]

Hinzu kommt: Die Verknüpfungen im Netzwerk, die Synapsen, sind nicht einfach an oder aus, sondern können unterschiedlich stark aktiv sein oder sich sogar gegenseitig beeinflussen … Das vervielfacht die Möglich keiten der Musterbildung nochmals“ (Beck 2016). Schließlich geht Beck auf den entscheidenden Unterschied der Art der Speicherung von Informationen im Gehirn und im Computer ein:

„Eine Information im Gehirn ist auch anders definiert als im Computer. Wie wollen Sie die Erinnerung an Ihre Mutter, ihr Bild, ihre Stimme, ihren Duft, die Gefühle, die sie bei Ihnen hervorruft, in Bits und Bytes fassen? Womit Sie es können, sind die Muster… Diese Muster werden mit analogen Signalen, den Botenstoffen, beliebig moduliert“ (Beck 2016). Bereits diese Zitate dürften genügen, um den in gewissen reißerischen Artikeln erweckten Eindruck entscheidend zu relativieren. In derartigen Artikeln wird – mindestens indirekt – der Eindruck erweckt, es sei nur eine Frage der Zeit, bis die angeblich schon weit fortgeschrittene Künstliche Intelligenz direkt in Künstliche Kreativität umschlagen werde.
Weiter oben hatte ich erläutert, dass dies nicht „einfach so“ möglich ist, bedenkt man die fundamentalen Unterschiede zwischen Intelligenz und Kreativität. Klar, hohe Intelligenz ist für jeden Kreativen ohne Zweifel außerordentlich nützlich – jedoch bleibt es dabei, dass ein hoch Intelligenter nicht unbedingt auch hoch kreativ sein muss. Meist wird als selbstver-ständlich angesehen, dass ein hoch Intelligenter über umfangreiches Wissen verfügt. Umgekehrt wird einem Vielwisser fast automatisch hohe Intelligenz zugesprochen. Diese irrtümliche Annahme verstärkt den bereits behandelten Irrtum – die Gleichstellung von
Intelligenz und Kreativität – erheblich. Deshalb wollen wir uns einige Zita ansehen. Sie zeigen, dass Künstlern, speziell Aphoristikern, die Unterschiede wohl schon immer bewusst waren. So meinte der österreichische Schriftsteller Karl Kraus:
„Eine umfassende Bildung ist eine gut dotierte Apotheke, aber es besteht keine Sicherheit, dass nicht für Schnupfen Zyankali gereicht wird“.
„In einen hohlen Kopf geht viel Wissen“.
„Vielwisser dürften in dem Glauben leben, dass es bei der Tischlerarbeit auf die Gewinnung von Hobelspänen ankommt“.
„Der Bibliophile hat annähernd dieselbe Beziehung zur Literatur wie der Briefmarkensammler zur Geographie“.
„Der Vielwisser ist oft müde von dem vielen, was er wieder nicht zu denken hatte“.
Noch deutlicher wurde der Physiker Georg Christoph Lichtenberg:
„Er hätte wohl ein besserer Gelehrter werden können, wenn er nicht so viel gelesen hätte“.
Im Zusammenhang mit der Künstlichen Intelligenz sind diese Zitate wichtig, weil sie die Begeisterung über die angeblich so intelligenten – mit ungemein vielen Fakten gefütterten – Programme relativieren. Faktenfülle (Datenfülle) ist kein Argument dafür, dass ein solches Programm intelligent, geschweige denn kreativ sein kann. Auch ein Savant bzw. ein vom Asperger-Syndrom Betroffener (euphemistisch als „Inselbegabung“ oder „Autistisches Genie“ bezeichnet) hat eine Unmenge an Daten parat. Kaum jemand käme jedoch auf die Idee, ihn deshalb für intelligent zu halten, zumal viele dieser Unglücklichen völlig unfähig sind, die Probleme des täglichen Lebens zu bewältigen.
Als Beispiel sei der wohl berühmteste Savant, Laurence Kim Peek, angeführt. Er lebte von 1951 bis 2009. Nach einem Artikel in der „Times“ verfügte Peek über eine extreme „memory capacity“ und war in der Lage, den Inhalt von 12 000 Büchern fehlerfrei aus dem Gedächtnis wiederzugeben. Sein Intelligenztest ergab einen IQ von 87. Er war nicht in
der Lage, selbstständig ein ganz normales Leben zu führen (nach: wikipedia. org/wiki/Kim_Peek#scientific_investigation).
Wie erwähnt, betreffen die wenigen bisher vorgelegten Beispiele für eine – angebliche – Künstliche Kreativität immerhin die Bereiche Design und Kunst. Aber das überzeugt einen Naturwissenschaftler nicht. Die genannten Beispiele beruhen ausschließlich auf einer bis zur Perfektion getriebenen Mustererkennung. Natürlich ist es verblüffend, wenn ein
Kompositionsprogramm perfekt den Stil von Mozart imitieren kann. Auch ein Malpro-gramm, das Bilder á la Rembrandt oder Picasso zu liefern imstande ist, überrascht zunächst. Allerdings basieren solche Programme, wie gesagt, grundsätzlich nur auf der Mustererkennung. Wenn genügend Einzelheiten zum Schaffen von Mozart, Rembrandt oder Picasso eingespeichert wurden, kann das Programm eigentlich gar nicht anders,
als seine Arbeit – ganz formal, ohne Sinn und Verstand, ohne jedes Bewusstsein – im vorgegebenen Rahmen zu erledigen. Ob dies allerdings Kreativität (im eigentlichen Sinne des Wortes) genannt werden sollte, erscheint mir doch recht fragwürdig. Hinzu kommt ein ganz wesentlicher Aspekt statistischer Art. Wenn beispielsweise ein medizinisches Diagnoseprogramm auf Verlässlichkeit bewertet werden soll, sind Menge und Qualität der eingegebenen Fälle signifikant. Das heißt im direkten Schluss: Blinddarmentzündung, Arthritis oder Grauer Star lassen sich verlässlich automatisiert diagnostizieren, weil genügend relevante Muster einprogrammiert werden konnten. Der Nutzen allerdings ist sehr begrenzt, denn Diagnosen solcher Art beherrscht ein erfahrener Arzt auch ohne Computerhilfe. Finster wird es hingegen, wenn das Programm beim Diagnostizieren seltener Krankheiten helfen soll. Hier fehlt es an Menge und Qualität der Muster; entsprechend unsicher sind die Ergebnisse. So haben wir es mit dem Paradoxon zu tun, dass ausgerechnet diejenigen Krankheiten, bei denen die Ärzteschaft dringend Unterstützung durch die moderne Technik benötigt, nicht verlässlich diagnostiziert werden können.
Dieses Beispiel ist keineswegs singulär. Der beschriebene Sachverhalt gilt für alle modernen KI-Programme generell. Je spezieller die Programme, desto weiter sind sie von der Möglichkeit entfernt, jemals kreativ im umfassenden Sinne werden zu können. Die Programme können genau definierte Routineaufgaben oft besser als der Mensch erledigen – und dies weit schneller –, aber eben ausschließlich Routineaufgaben.
Da somit die extreme Spezialisierung der Schaffung wirklich kreativer, universeller Programmen prinzipiell zuwiderläuft, müsste ein ganz anderer Ansatz gewählt werden. Zunächst einmal müsste die Datenbank des Programms mit dem gesamten Weltwissen („gesamt“ im denkbar weitesten Sinne) gefüttert werden. Dies zu erreichen ist, falls es überhaupt jemals möglich sein sollte, wahrlich schwer genug. Aber nur dann wäre die
Ausgangslage halbwegs fair vergleichbar mit dem vom lebenden Menschen nutzbaren Assoziationsfundus.
Wenn nun der Algorithmus mithilfe seiner – im Idealfall universellen – Datenbank kreative Lösungen auf beliebigen Gebieten finden soll, zeigen sich die gravierenden Unterschiede zwischen Mensch und Maschine. Weit schneller als der Mensch mag der Algorithmus zwar rein mechanisch zahllose Verknüpfungen herstellen können, er ist aber nicht in der Lage, sie nach „ungewöhnlich“ oder „banal“ zu sortieren bzw. die Sinnhaftigkeit der von ihm produzierten Varianten selbst zu bewerten. Das kann allein der Mensch, der zudem den Vorteil hat, dass er, sofern methodisch erfahren, im Gegensatz zum Algorithmus unsinnige oder banale Varianten gar nicht erst generiert. Beides hängt mit jenen typisch
menschlichen Fähigkeiten und Charakteristika zusammen, die dem Algorithmus – systemisch bedingt – vollständig fehlen: Bewusstsein, Intuition, „Bauchgefühl“, eigenen Bedürfnissen und Zielvorstellungen, Urteilsvermögen, Individualität, dem dialektischen Denken, der Fähigkeit zum Entdecken bisher nicht bekannter Ursache-Wirkungs-Zusammenhänge, der weitgehenden Flexibilität auf jeder Stufe der Problembearbeitung, dem inneren ethischen Kompass. Den IT-Experten ist dies alles ganz sicher klar, und so wird denn seit längerer Zeit intensiv versucht, die wichtigsten der oben genannten Charakteristika wenigstens zu simulieren. Damit soll der Algorithmus befähigt
werden, mit seiner immensen Datenfülle nicht nur banale, sondern auch
wirklich kreative Ergebnisse erzielen zu können. Ob das jemals gelingen
wird, scheint mir wegen des einmaligen Charakters der menschlichen
Kreativität allerdings hochgradig unwahrscheinlich. Die aktuellen Auffassungen zum bereits erreichten Sachstand sind absolut kontrovers, zumal Horrorvisionen zu von Algorithmen gesteuerten Maschinen, welche die Weltherrschaft übernehmen, stets mit hineinspielen. Der Artikel „Angstträume“ (Jung, Nezik, Rosenbach u. Schulz 2018)
beschreibt die Situation:
„Wie klug Maschinen wirklich werden können, darüber streiten die KI-Experten. Der deutsche Forscher Jürgen Schmidhuber ist überzeugt, bald schon eine universelle künstliche Intelligenz bauen zu können: eine Maschine, die nicht nur für eine Aufgabe trainiert werden kann, sondern immer mehr Fähigkeiten erwirbt und auf jede Problemstellung angesetzt wird…. Kritiker bezweifeln das. Über die heute schon mögliche Mustererkennung und ihre Hilfe bei Routineaufgaben werde die Maschine nie
hinauskommen: sehr nützlich, aber im Kern doch dumm, immer auf den
Menschen angewiesen. Selbst die besten Algorithmen wären nicht mal
ansatzweise in der Lage, Kreativität und Abstraktionsvermögen zu demonstrieren“.
Ein interessantes Beispiel betrifft die computergestützte Sprachverarbeitung. Sie krankt noch immer daran, dass dem Computer das für den Menschen selbstverständliche allgemeine Hintergrundwissen fehlt. So versteht ein Computer den Sinn des Satzes „Er hatte zu viel getrunken und war schlecht zu verstehen“ üblicherweise nicht, da ihm das
Allgemeinwissen fehlt, dass Alkoholkonsum zu undeutlichem Sprechen
führen kann. Socher (2019) erläutert den Zusammenhang:
„Unsere menschliche Kommunikation ist durchdrungen von solchen unausgesprochenen Annahmen, von vorausgesetzten Kenntnissen. Das fehlt Maschinen bislang, weswegen Chatbots oder virtuelle Sprach-Assistenten oft seltsame Antworten geben……. Im Gegensatz zu Menschen können Maschinen nur exakt jene Wörter und Konzepte verstehen, für die sie trainiert wurden“ (Socher 2019).
Socher hofft nun, künftig mithilfe neuronaler Netze dem Computer zu ermöglichen, aus einer großen Menge von Textdaten zu lernen, Schlüsse zu ziehen. Das ist aber wohl eher Zukunftsmusik, bedenkt man den heute eher bescheidenen Stand der Entwicklung analog arbeitender neuronaler Netze. Immerhin könnte die Arbeitsrichtung stimmen.
Zur menschlichen Kommunikation gehören ferner gewisse sprachliche Feinheiten, die den Computer auch in Zukunft überfordern dürften. Ich meine insbesondere Doppeldeutigkeiten, ironische Formulierungen und Paradoxien. Dazu folgendes eigene Beispiel:
Vor Jahrzehnten arbeitete ich mit einem befreundeten Kollegen zusammen, der auf diesem Gebiet Meisterhaftetes leistete. Er besaß einen Zwergpudelrüden. Ich fragte eines Tages: „Stimmt es, dass bei Zwergpudelrüden oft Einhodigket beobachtet wird?“. Mein Freund erwiderte: „Meist sogar beidseitige Einhodigkeit!“. Wir alberten noch eine Weile herum, bis unser neu erarbeiteter „Lehrsatz“ schließlich lautete: „Bei den
Zwergpudelrüden ist die beidseitige Einhodigkeit stets erblich“.
Nun ist das kompletter Unsinn, jedoch könnte dies ein Algorithmus nicht erkennen. Insbesondere in Sachen Erblichkeit würde ihm das dem Menschen selbstverständliche Hintergrundwissen fehlen. Natürlich ließe sich der Algorithmus nach Eingabe des bisher fehlenden Wissens darauf trainieren, „Lehrsätze“ solcher Art sofort zu eliminieren. Indes: Wie viel ärmer wäre die Welt, wenn wir im Interesse der viel zitierten Mensch-Maschine-Kompatibilität unseren Ehrgeiz daran setzten, diese besonders anregenden – hochgradig kreativen – Sprachspielereien, Doppeldeutigkeiten und Paradoxien zu vermeiden bzw., so sie uns denn herausgerutscht sind, anschließend maschinell ausmerzen zu lassen?
TRIZ, die „Theorie zum Lösen erfinderischer Aufgaben“, arbeitet sogar, methodisch bedingt, prinzipiell mit paradoxen bzw. widersprüchlichen Formulierungen: Erfinderische Aufgaben sind solche, bei denen das betrachtete System heiß und zugleich kalt, nass und zugleich trocken, oder offen und zugleich geschlossen zu sein hat, wobei die Kompromisslösungen (lau, feucht, halb offen) hier grundsätzlich, weil nicht erfinderisch,
ausscheiden (Zobel 2022, S. 53).

Die zur Unterstützung des Erfinders bereits existierenden Programme (z. B. TechOptimizer, Innovation Work, Bench, Goldfire, TriSolver) können nicht selbstständig mit solchen dialektischen Widersprüchen umgehen und müssen vom Menschen bedient werden. Sie erfüllen somit nicht die Anforderungen, die an einen Algorithmus zu stellen sind, nämlich völlig selbstständig ohne Hilfe des Menschen arbeiten zu können. Dies gilt nicht nur für die Startphase, d. h. den Umgang mit den dialektischen Widersprüchen, sondern für alle Stufen
des erfinderischen Prozesses. Das Programm liefert Vorschläge, Stufe für Stufe, und der Mensch muss entscheiden, welcher der Vorschläge als sinnvoll erachtet und der weiteren Bearbeitung zugrunde gelegt wird. Das sind dann jedes Mal Richtungsentscheidungen, und diese können nicht selbstständig vom Algorithmus getroffen werden. Erschwerend wirken zudem die prinzipiellen Anforderungen: Technische Erfindungen haben grundsätzlich neu zu sein, müssen auf einer erfinderischen Tätigkeit beruhen und haben praktisch anwendbar zu sein. Die Neuheit wird absolut definiert, d. h. beliebige schriftliche oder sonstige
Quellen, unabhängig von ihrer lokalen Herkunft oder dem Zeitpunkt der Veröffentlichung, sind neuheitsschädlich. Ziemlich subjektiv ist die Situation bei der Einschätzung der erfinderischen Tätigkeit, auch Erfinderische Leistung oder Erfindungshöhe genannt. Deshalb wurden Hilfskriterien definiert, welche die Entscheidung erleichtern sollen, ob dieses Kriterium erfüllt ist oder nicht. Es sind dies: Die Lösung muss überraschend sein, sie hat außerhalb des Suchfeldes des Durchschnittsfachmannes zu liegen, sie hat eine bisher unbekannte Wirkung einer an sich bekannten Vorrichtung aufzudecken, es wurden besondere technische Schwierigkeiten überwunden, es gab ein von der Fachwelt angemeldetes Bedürfnis, es lag Blindheit der Fachwelt vor, es gab gegen
diese Art der Lösung ein Vorurteil (Zobel 2022, S. 322 ff.).
Auch unter diesen Aspekten ist kaum vorstellbar, dass es jemals einen völlig autonom arbeitenden Erfindungsalgorithmus geben könnte. Schließlich sind auch die viel gerühmten Bilderkennungsprogramme als Beispiele für eine angeblich schon weit entwickelte Künstliche Intelligenz („KI“), von „KK“ ganz zu schweigen, eher ungeeignet:
„Manchmal ist die künstliche Intelligenz erstaunlich dumm. Selbst die besten Bilderken-nungsprogramme lassen sich leicht in die Irre führen. Um das zu beweisen, legten Forscher über das Foto eines Schweins ein schwaches Rauschen, vergleichbar mit einer Bildstörung beim Fernsehen. Während der Mensch weiterhin einwandfrei ein Schwein erkannte,
sah der Computer plötzlich: ein Flugzeug. Solche Angriffe auf die Bilderkennungssoftware lassen sich konstruieren….Schon gezielt angebrachte Aufkleber auf einem Stoppschild könnten einem selbst fahrenden Auto weismachen, dass es nicht bremsen muss. Oder eine Handykamera erkennt in einigen Pixeln irrtümlich das Gesicht seines Besitzers – und
entsperrt das Gerät. Selbstlernende Systeme sind anfällig für solche
Manipulationen, weil sie nicht wissen, was sie tun: Die Software versteht
nicht, was ein Stoppschild oder ein Schwein ist. Sie weiß nicht, dass
Schweine einen Ringelschwanz und Schlappohren haben. Stattdessen
wird sie mit einer Vielzahl von Schweinebildern gefüttert und sucht darin
nach wiederkehrenden Mustern. Versteckt man diese Muster auf anderen Bildern, kann sie sich täuschen lassen“ (Schlak 2019)
Bilderkennungsprogramme lassen sich immerhin verbessern, wenn die
Anzahl der eingegebenen Muster immer weiter gesteigert wird. So gibt
Katharina Zweig (2019) an, dass die Fehlerrate in der Bilderkennung
durch Künstliche Intelligenz zwischen 2010 und 2017 von 28 auf 2,25 %
gesunken ist. Zweig betont, dass die neuesten Programme zudem
Erstaunliches leisten: „Wenn selbst verdeckte Objekte, die noch nicht
einmal unbedingt die Hauptrolle spielen, von ihnen entdeckt und dabei
noch sehr spezifische Kategorien wie unterschiedliche Hunderassen
zum Einsatz kommen, ist es nahezu unglaublich, dass die Maschinen
heute nur noch 2,25 % der Bilder falsch klassifizieren…“.
Wenn man allerdings nach dem Vergleich mit menschlichen Bewertern
fragt, kommt man doch sehr ins Grübeln. Zweig schreibt dazu:
„Sie werden jetzt sicher darauf tippen, dass eine ganze Horde von Testpersonen rekrutiert wurde, um denselben Auftrag wie die Maschine zu lösen. Diese müssten dann für ein Bild aus tausend Kategorien fünf möglicherweise passende wählen, wobei die tausend Kategorien von den Zuordnern erst einmal gelernt werden müssten. Aber wer lernt denn
mal eben tausend Kategorien auswendig?…Die Bewertung wurde
schließlich von zwei Experten vorgenommen, die zunächst 500 Bilder inklusive der richtigen Klassifizierung bekamen. Einer der Experten ordnete 258 Bilder zu, dann warf er das Handtuch. 12 Prozent dieser Bilder hatte er falsch zugeordnet. Der andere hielt deutlich länger durch: Er ordnete insgesamt 1500 Bilder zu, bei einer Fehlerquote von 5,1 %. Und das ist er: der menschliche Standard, mit dem seither alle anderen Systeme verglichen werden. Mit anderen Worten: Die sogenannte und oft zitierte „menschliche Bilderkennungsrate“ beruht auf der Leistung einer einzigen, kurzfristig angelernten Person“ (Zweig 2019).

Prinzipiell ändert dies alles nichts am Sachverhalt: Insgesamt ist davon auszugehen, dass die so genannte Künstliche Intelligenz beim heutigen Stand der Dinge alles andere als intelligent ist, besonders dann, wenn die störenden Einflüsse des wahren Lebens im Spiele sind. Zwar sind, wie erläutert und begründet, Intelligenz und Kreativität keinesfalls Synonyme, dennoch wird die Beantwortung der Frage, ob Künstliche Kreativität jemals möglich sein könnte, zunächst einmal beim Stand der Entwicklung der Künstlichen Intelligenz ansetzen. Die meisten der oben behandelten Beispiele zeigen, dass schon ziemlich einfache menschliche Fähigkeiten von den Programmen nicht verlässlich simuliert werden können. Die erläuterten Ausnahmen sind nur vermeintliche Ausnahmen: Im Rahmen eingeschränkter, hoch spezialisierter Anforderungen kann ein Programm den Menschen durchaus übertreffen. Wird es bei der Bearbeitung einer Aufgabe jedoch im geringsten Maße komplex, und ist das beim Menschen per se vorhandene umfangreiche Hintergrundwissen gefragt, versagt der Algorithmus kläglich.
Somit liegt es schon aus dieser Sicht nahe, an der Möglichkeit zu zweifeln, dass jemals ein kreativ arbeitendes künstliches System geschaffen werden kann. Speziell gilt dies für die technisch-wissenschaftliche Kreativität, deren Besonderheiten ich nachstehend skizziere:
Ein Algorithmus ist nicht in der Lage, eigenständig völlig neue Aufgabenstellungen zu entwickeln. Neue Aufgabenstellungen sind es aber, die zu anspruchsvollen Erfindungen führen. Ferner ist ein Algorithmus außerstande, Entdeckungen zu machen. Diese sind dem Menschen vorbehalten: Ein in der Natur zwar vorhandener (bisher aber noch nicht bemerkter) Ursache-Wirkungs-Zusammenhang kann eben vom Algorithmus, da im Programm nicht enthalten, nicht bemerkt, geschweige denn genutzt werden. Selbst wenn die physikalisch beteiligten Parameter in der Datenbank enthalten sein sollten, so fehlt dem Programm doch die Fähigkeit, den bisher noch nicht beachteten (für uns also neuen) Ursa-
che-Wirkungs-Zusammenhang als solchen zu erkennen, das heißt, die fällige Entdeckung zu machen. Entdeckungen sind es aber, welche zu besonders hochwertigen Erfindungen führen: Wer erstmals einen bisher nicht bemerkten Ursache-Wirkungs-Zusammenhang entdeckt, ist in der Lage, eine besonders überraschende Mittel-Zweck-Beziehung aufzubauen – und damit eine Erfindung auf hohem Niveau zu schaffen.
Bereits Altschuller (nach: Terninko, Zusman u. Zlotin 1998, S. 48) hat darauf hingewiesen, dass nur wenige Erfindungen höchsten Ansprüchen an die erfinderische Leistung genügen. Diese werden aus oben genannten Gründen dem Menschen vorbehalten bleiben. Vielleicht könnten drittrangige Erfindungen – an der Grenze zur Schutzfähigkeit – irgendwann einmal nach dem Prinzip der Mustererkennung zugänglich werden. Erste Ansätze liefern die heute verfügbaren TRIZ-Programme. Sie funktionieren aber noch immer so, dass – Stufe für Stufe – Vorschläge zum weiteren Vorgehen sowie Lösungsvorschläge auf Basis möglicherweise analoger Sachverhalte gemacht werden. Die „Übersetzungsarbeit“ (Ist
der Vorschlag zum weiteren Vorgehen sinnvoll, ist die angebotene Analogie als Muster für die Lösung tauglich?), und damit die Entscheidung, ist aber, Stufe für Stufe, nach wie vor Sache des Menschen. Nun ließe sich einwenden, dass ein Algorithmus auf das Arbeiten mit
Wahrscheinlichkeiten programmiert werden kann. Dann könnte die Entscheidung, welcher weitere Bearbeitungsweg gewählt oder welche Analogie als zutreffendes Beispiel akzeptiert wird, dem Computer überlassen werden. Dies funktioniert bei ChatGPT schon ganz ordentlich, aber eben nur, wenn es um das Generieren von Texten auf „Plapperniveau“ geht. Völlig anders liegt die Sache jedoch beim Erfinden: Wahrscheinlichkeiten gehen stets von prinzipiell bekannten Zusammenhängen aus, so dass die besonders ungewöhnlichen Lösungen, die wir als Erfinder ja anstreben, per Algorithmus eben nicht zugänglich sind.
Zum Auffinden solcher Lösungen ist nur der menschliche Geist fähig, da er nicht digital arbeitet, sondern assoziativ-analog denkt. Nur bei dieser Denkweise kommen aber die hoch kreativen Lösungsvarianten (neben allerhand Müll, der aber nicht weiter stört) überhaupt vor.
Weiter oben bin ich bereits darauf eingegangen, dass dies den Programmentwicklern offensichtlich klar ist, und so wird – mit bisher mäßigem Erfolg – seit längerem versucht, das analoge Denken zu simulieren. Heute ist man erst beim „Nachbau“ einfachster neuronaler Netze angelangt, etwa auf dem Niveau des Regenwurmes. Sollte es je gelingen, die Denkweise höher intelligenter Wesen technisch nutzbar zu simulieren, sähe die Situation ohne Zweifel anders aus. Jedoch sollte bedacht werden: Unser Maßstab ist nicht das Gehirn des Salamanders, der Maus oder des Koalas, sondern das menschliche Gehirn.
Bemerkenswert ist, dass die zur Simulation des analogen Denkens entwickelten neuronalen Netze durchaus nicht allen KI-Experten als das Wundermittel der Zukunft gelten. So formulierte Ruskowski recht unverblümt: „Neuronale Netze sind strohdumm“ (Kroll 2019 b). Paasche (2019) hat sich mit den Perspektiven der Künstlichen Intelligenz
auseinandergesetzt und wesentliche Aspekte der voraussichtlichen Entwicklung aus der Sicht des erfahrenen Elektronikers analysiert:
„Computer der Zukunft werden sich am weltweiten Wissen wie Bienen am Nektar bedienen können und somit in der Wissensbereitstellung dem Menschen überlegen sein. Das Internet ist derzeit allerdings eher eine Müllhalde bzw. ein Instrument der Werbein-dustrie. Damit Computer Wissen aus dem Internet nutzen können, muss es aufbereitet oder durch einen Menschen interpretiert werden. Das bedeutet, dass allein die Menge an Daten kein Wissen darstellt. Es ist schlichtweg für eine künstliche Intelligenz nicht nutzbar, oder müsste …. erst aufbereitet werden.
Das menschliche Gehirn besteht aus Milliarden von Nervenzellen und Synapsen, die das Wissen in Muster zerlegt, speichert. Die Fähigkeit, Wissen oder Ereignisse speichern zu können, beruht auf einem ständigen Training des Gehirns. Dabei werden Verknüpfungen zwischen den Neuronen ausgebildet oder verödet.

Die derzeitige Künstliche Intelligenz versucht diese Arbeitsweise des Gehirns nachzubilden. Dies geschieht durch einzelne Neuronen oder einfache neuronale Netze. Die Funktion der Neuronen lässt sich im Sinne einer Mikrorechnereinheit oder als sequentiell abzuarbeitende Programmstruktur darstellen. Dabei ist die Rechenleistung im Vergleich zum biologischen Vorbild sehr gering, und die Anzahl der künstlichen Neuronen noch sehr überschaubar. Meiner Ansicht nach bedarf es einer Kombination von Speicherzelle, Fuzzy-Logic und Analogrechner. Der Aufbau auf einem Chip entspräche dann einem konfi-gurierbaren Widerstandsnetzwerk, bestehend aus Feldeffekt-Transistoren am Eingang, deren Signale summativ erfasst und durch einen Zwischenverstärker entkoppelt werden. Nachfolgend speichert dann ein Kondensator die Information zwischen. Am Ausgang befindet sich eine Synapse. Meiner Auffassung nach … erzeugt das Gehirn einen internen Synchrontakt, mit dem die Zwischenergebnisse der Neuronen über die Synapsen weitergeleitet werden. Im EKG sieht man charakteristische wiederkehrende Signale, und dazu die Muskelkontraktionssignale der Synapsen in der Gehirnrinde. Man könnte Synapsen somit als eine Art von sample and hold – Schaltung auffassen. Diese benutzt heute jeder Analog-Digital-Wandler als Kurzzeitspeicher während der Quantisierung. Somit wäre auch die Funktion der Synapse als elektrisches Abbild darstellbar. Ich kann mir gut vorstellen, dass mit fortschreitender Erforschung der Funktionsweise des menschlichen Gehirns dessen Arbeitsweise klarer wird. Somit wird es in naher Zukunft kleine, später auch größere und umfangreichere neuronale Netzwerke geben, die dem menschlichen Vorbild entsprechen. Erst wenn dieser Entwicklungsschritt vollzogen ist, wird es künstliche Assistenten geben, die in der Lage sind, Wissen neu zu verknüpfen“ (Paasche 2019).
Derzeit allerdings wird wohl kein Programm, sei es auch noch so gut und
zudem selbstlernend, derart komplex sein können, dass es alle Kreuz-und Quer-Vernetzungen zu allen Wissensgebieten (einschließlich aller nichtwissenschaftlichen Assoziationsmöglichkeiten, von denen der Kreative – ganz nebenbei, „aus dem Bauch“ – stets profitiert) herzustellen vermag. Zudem dürfte der Algorithmus auch künftig nicht in der Lage sein, unerwartete Zwischenergebnisse bei der Bearbeitung eines Themas zu wichten, zu werten, und auswählend selbst über die weitere Art der Bearbeitung des Themas zu entscheiden. Dass hierbei die – ansonsten oft sinnvolle – Arbeit mit Wahr-scheinlichkeiten eher kontraproduktiv ist, habe ich weiter oben bereits begründet.

Wissenschaft lebt eben ganz wesentlich von den überraschend auftauchenden (ganz neuen) Sachzusammenhängen und deren kreativer Deutung und Nutzung für den nächsten Arbeitsschritt. Zudem hat der Computer keine Bedürfnisse und keine eigenen Zielvor-stellungen. Er weiß noch nicht einmal, wer er ist, was er macht, und was das, was er macht, überhaupt bedeutet. Stimmungen sind ihm fremd, und er kennt nicht die Verschiebungen der Betrachtungsweise, die sich unter solchen Einflüssen sowie unter der Einwirkung charakterlicher Besonderheiten, subjektiver Aspekte etc. ergeben. Vom Einfluss der Intuition, der Phantasie, des Lebensalters, des Geschlechts, der Hormone, des sozialen Umfeldes, der persönlichen Marotten, des im Vergleich zum Algorithmus völlig anders gearteten menschlichen Denkens will ich gar nicht reden. Dies alles ließe sich, falls
überhaupt, nur unvollkommen in einem Programm berücksichtigen – leider nicht wirklich menschlich, sondern nur als eine gleichsam „hölzer ne“ Simulation, die wohl kaum weiterhelfen dürfte.
Befremdlich finde ich unter diesen Umständen, dass einige der KI-Spezialisten zu glauben scheinen, moderne Programme verfügten bereits über so etwas wie ein „aufsteigendes Bewusstsein“: „Die grundlegende Frage, was „bewusste KI“ überhaupt sei und was an
den Szenarien von Maschinen mit einer eigenständigen Existenz dran sei, wird erstaunlicherweise selten gestellt. An dieser Stelle setzt das zweijährige Forschungsprojekt „Abklärung des Verdachts aufsteigenden Bewusstsein in der Künstlichen Intelligenz“ (KI-Bewusstsein)“ an … Manche halten es für ausgeschlossen, dass Maschinen, insbesondere
KI-Systeme, irgendwann einmal „bewusst“ werden. Andere behaupten, bewusste KI-Systeme seien längst da und versteckten sich nur noch vor uns“ (Kroll 2019 a).


Die absonderliche Annahme, Systeme dieser Art verfügten bereits über ein Bewusstsein, seien sogar schlau genug, selbiges vor uns zu verbergen, ist nach meiner Auffassung rein spekulativ. Sinnvoller erscheint mir die nüchterne Definition der Gebiete, in denen einfache KI (ohne jedes Bewusstsein) für uns praktisch nützlich sein kann. Im Bericht über das
Forum „Künstliche Intelligenz 2019“ lesen wir dazu:
„…kann die KI ihre Stärken ausspielen, indem sie ….stupide Aufgaben übernimmt, die den Menschen ermüden, z. B. in Form der Bilderkennung in der Qualitätssicherung. Je spezialisierter die Aufgaben sind, desto eher kann Künstliche Intelligenz helfen. KI hat dabei kein Bewusstsein, keinen Willen und keine Zielorientierung. „„Neuronale Netze sind strohdumm und können 3,5 Milliarden Jahre Evolution niemals ersetzen“, so
Ruskowski““… (Kroll 2019 b).
Die Frage der Künstlichen Intelligenz spielt in Kopplung mit der Frage, ob Künstliche Kreativität überhaupt denkbar ist, nicht nur im naturwissenschaftlich-technischen Bereich eine Rolle. Sie wird in dem Artikel „Artifical Creativity – kann künstliche Intelligenz kreativ sein?“ vom Marketing und Kommunikationsexperten Schipper wie folgt beurteilt:
„Der Name verrät es ja schon. Diese Intelligenz macht nur künstlich das
nach, was die menschliche Intelligenz zuvor erschaffen hat. Sie kann
also nur bis zu einem gewissen Grade bestmöglich wiederholen, was
man ihr vorher beigebracht hat. Und dieses Prinzip ist stabil und kann
nicht verändert werden, und damit wird auch klar, dass KI keine eigenen
Ideen entwickeln kann – wie beruhigend“ (Schipper 2018).
Dem ist kaum etwas hinzuzufügen. Selbst wenn man den heutigen Programmen zugute hält, dass sie selbstlernend sind, so kann dieses Lernen – das mit menschlichem Lernen nicht zu vergleichen ist – eben nur im Rahmen des Programms erfolgen.

Eine Besonderheit der Kreativität ist jedoch, stets aus einem – wie auch immer gearteten – Programm ausbrechen zu können. Man könnte sogar sagen, dass wahre Kreativität
sich nur außerhalb vorgegebener Programme entfaltet. Überdies ist es, speziell beim Erfinden, nicht mit einem einzigen pfiffigen Gedanken getan. Es erfordert mühseliges, stets kreatives Arbeiten, bis eine praktikable Lösung vorgelegt werden kann. Ich hatte bereits darauf hingewiesen, dass die Wichtung und Wertung unerwarteter Zwischenergebnisse bei einer solch kreativen Arbeit wohl grundsätzlich Sache des Menschen bleiben wird. Schollmeyer (2018) hat am Beispiel der Arbeit des Handwerkers angemerkt, dass gar nicht unbedingt von erfinderischer Tätigkeit die Rede sein muss, wenn es um Kreativität geht:
„Ein einziger Arbeitstag eines Handwerkers erfordert …den Umgang mit so viel Ungewissheit, dass Algorithmen weit davon entfernt sind, die erforderlichen Urteile auch nur ansatzweise fällen zu können“.
Wer im Falle einer Software-Störungsmeldung an seinem Auto jemals die hilflosen Versuche des Spezialisten in der Werkstatt erlebt hat, den Fehler nicht nur zu finden, sondern ihn auch verlässlich und dauerhaft zu beheben, dürfte wohl zustimmen. In grauer Vorzeit, als wir unsere Autos noch selbst reparieren konnten, wussten wir wenigstens, was wir taten. Heute ist das nicht mehr so: Oben erwähnter Spezialist teilt uns mit, der
Computer melde, dass „da mal irgendein Fehler“ war, er könne aber leider nicht feststellen, welcher, es sei aber wohl nicht so schlimm, und unserer Weiterfahrt stehe nichts im Wege. Wir fahren also beruhigt davon – und starren genervt auf die alsbald erneut aufleuchtende Fehleranzeige: „Suchen Sie umgehend die Werkstatt auf“!
Katharina Zweig (2019) hat sich intensiv mit dem Entwicklungsstand und der sozialen Seite der Künstlichen Intelligenz befasst. Im von Zweig geschaffenen Studiengang „Sozioin-formatik“ werden beispielsweise Fragen behandelt, die sich im Zusammenhang mit Algorithmen zur Einschätzung der Wahrscheinlichkeit stellen, mit der inhaftierte Straftäter nach der Entlassung abermals straffällig werden. Auch Algorithmen, die den Personalchef eines Unternehmens bei Durchsicht der eingehenden Bewerbungsflut unterstützen, denen sogar die Bewertung der jeweiligen Bewerber überlassen werden soll, sind kritisch zu betrachten: „Ich persönlich bin immer noch sehr skeptisch, wie oft es wirklich vorkommen wird, dass Menschen durch Algorithmen des maschinellen Lernens in ihren Entschei-dungen über andere Menschen sinnvoll unterstützt oder gar ersetzt werden können. Ich denke, dass die Menschenbilder, die diesen Ansatz unterstützen, stark übertrieben sind: Ja, gemessen an dem grotesk vereinfachten homo-oeconomicus-Modell handeln wir manchmal irrational – gemessen an den Nebenbedingungen, unter denen wir Entschei-dungen fällen müssen, aber rational … Es ist für mich als Naturwissenschaftlerin … nur wenig nachvollziehbar, warum die von den Maschinen gefundenen Korrelationen nicht in klassischen Experimenten auf ihre Stichhaltigkeit geprüft werden, bevor sie verwendet werden dürfen .. Natürlich können Algorithmen des maschinellen Lernens im Rahmen
eines Data Minings erst mal genutzt werden, um mögliche Gründe für ein vorherzusagendes Verhalten zu finden. Aber am Ende sollten nur noch Variablen Eingang in das statistische Modell finden, bei denen ein kausaler Zusammenhang begründbar ist“ (Zweig 2019). Ob es heute überhaupt schon eine anspruchsvolle Künstliche Intelligenz
(„starke“ KI) gibt, wird von Expertinnen und Experten bezweifelt: „Als „starke“ KI bezeichnen wir Software, die menschliche Fähigkeiten in fast allen Punkten erreicht oder gar übersteigt. Es ist eine Software, die sich eigene Probleme heraussucht und diese dann systematisch untersucht, um eine Lösung zu finden. Schwache KI dagegen kann Einzel- aufgaben bewältigen: Dies sind die oben genannten Systeme, die Schach spielen, Bilder erkennen oder gesprochenes Wort in Text umwandeln können. Momentan sehen wir also nur schwache KI …
Meine Kollegin Hannah Bast sagte dazu in der Enquete-Kommission: „ In Wahrheit sind wir doch gerade erst von der äußerst schwachen zur sehr schwachen KI gekommen“. Jürgen Geuter sagt zur künstlichen Intelligenz, wie wir sie heute kennen: “Letztlich existiert KI nicht. Und sie ist auch nicht nah. Es existieren leistungsfähige Statistiksysteme, denen
durch einen attraktiven Namen eine gewisse Magie zugesprochen werden soll. Künstliche Intelligenz ist nur ein Werbebegriff““ (Zweig 2019). Katharina Zweig hält für den – auch aus ihrer Sicht – äußerst unwahrscheinlichen Fall, dass wir es doch irgendwann einmal mit echter KI zu tun bekommen sollten, die strikte Einhaltung starker ethischer Regeln für
erforderlich. Noch besser wäre, auch darin ist Zweig zuzustimmen, nicht alles zu entwickeln, was sich prinzipiell entwickeln lässt. Nur zeigt die Geschichte der Menschheit, dass bisher niemals so verfahren wurde. Stets fand früher oder später – neben der sinnvollen – auch eine missbräuchliche Anwendung der neuesten Ideen und der oft bedenkenlos daraus entwickelten Technologien statt. So gibt es bereits bei den heutigen KI-Programmen ernste Missbrauchstendenzen: Wer möchte sich schon von einem Algorithmus – statt von einem Menschen – bewerten lassen? Wem wird nicht mulmig zumute, wenn er an die mit dem autonomen Fahren verbundenen Abwägungssituationen denkt? Wem graut nicht vor
Kriegsrobotern, wenn bereits heutige „Präzisionswaffen“ harmlose Hochzeitsgesell-schaften statt böser Terroristen treffen?
Neuerdings ist ein wahrer Hype um das Programm „ChatGPT“ ausgebrochen. Unabhängig von den weiter oben ausführlich begründeten prinzipiellen Zweifeln an der Kreativität so genannter intelligenter Programme, die ja von Kennern der Materie durchaus geteilt werden, ist ChatGPT als Modell einer angeblich bereits gut funktionierenden KI in das öffentliche Interesse gerückt. Sehen wird uns deshalb die Sache etwas näher an:
Zunächst sei nicht bestritten, dass Chat GPT vergleichsweise gefällige
Texte zu liefern vermag, wenn es um Themen aus Literatur, Kunst, Journalistik, Unterhaltung oder Politik geht. Das verwundert nicht, wenn man bedenkt, dass das Programm mit oft anspruchsvollen, hochwertigen, gut formulierten Texten aus genannten
Gebieten trainiert wurde. Dabei wurde völlig hemmungslos verfahren, was die Urheber-rechte der Autoren an den Quelltexten anbelangt. Inzwischen wehren sich etliche Autoren gegen die kostenlose Nutzung ihrer Werke. So haben mehr als 8000 Schriftsteller in Nordamerika, darunter Dan Brown, James Patterson, Jodi Picault, Margaret Atwood und Jonathan Franzen, mit einem offenen Brief gegen die kostenlose Nutzung ihrer Werke für die Entwicklung Künstlicher Intelligenz protestiert: „Millionen von urheberrechtlich geschützten Büchern, Artikeln, Essays und Gedichten bieten die Nahrung für KI-Systeme – unendliche Mahlzeiten, für die es keine Rechnung gab. Ihr gebt Milliarden von Dollar aus,
um KI-Technologien zu entwickeln. Es ist nur fair, dass ihr uns dafür kompensiert, unsere Werke zu benutzen, ohne die KI banal und extrem limitiert wäre“ (Horsten 2023)
Das Prinzip, nach dem solche – letztlich auf geistigem Diebstahl beruhenden – künstlichen Texte erstellt werden, ist einfach. Statistisch ist vorhersehbar, welche Textbausteine bei der Erstellung eines Textes zu einem vorgegebenen Thema mit der höchsten Wahrscheinlich-keit jeweils am besten passen könnten. Aus der Fülle des vorhandenen Muster-Materials wird dann, Satz für Satz, Wort für Wort und Silbe für Silbe, der Text in beeindruckender Geschwindigkeit rein mechanisch, ohne jeden Verstand, zusammengebastelt. Dass dies oft in überraschend hoher Qualität gelingt, ist allein auf Güte und Menge der eingegebenen Muster zurückzuführen (s. o.). Was allerdings ein so gewonnenes Ergebnis mit Intelligenz zu tun haben soll, leuchtet mir nicht ein. Vollends unangebracht ist aus meiner Sicht, solche Texte gar als kreativ zu bezeichnen.
Das wird insbesondere dann klar, wenn man den oben geschilderten Entstehungsme-chanismus bedenkt: Grundsätzlich können auf Basis statistischer Wahrscheinlichkeiten generierte Texte nur den Mainstream abbilden. Diesem fehlen aber systembedingt die hier in Rede stehenden abweichenden, ungewöhnlichen, strittigen, kreativen Elemente. Güte und Wahrheitsgehalt der so generierten Texte lassen sich zudem ausschließlich vom Menschen beurteilen. Das fällt auch Spitzenkräften nicht immer leicht, denn ChatGPT betreibt nicht nur geistigen Diebstahl, sondern verschleiert diesen zudem vollständig, denn, wie gesagt: es werden keine Quellen angegeben. Quellenangaben sind jedoch für eine
seriöse Prüfung unerlässlich. Auch aus dieser Sicht ist festzustellen, dass der bom-bastische Terminus „KI“ besten Falles als gefällig formulierter Markenschwindel zu bezeichnen wäre.
Vollends schwierig wird es, wenn wir ChatGPT für die Unterstützung bei technischen oder naturwissenschaftlichen Fragen einsetzen wollen. Ich habe Tests auf verschiedenen Wissensgebieten – wie Chemie, Astronomie und Maschinenbau – durchgeführt. Die zur Beurteilung der Brauchbarkeit derart gewonnener Ergebnisse unverzichtbaren Quellenangaben fehlen, wie gesagt. Der Wissensstand des Systems liegt derzeit in etwa
auf niedrigem Wikipedia-Niveau. Ersichtlich ist hier noch viel Luft nach oben. Allerdings ist im Ergebnis weiterer Dateneingaben nicht zu erwarten, dass ein krasser – systemspe-zifischer – Mangel verschwindet. Dieser besteht darin, dass ChatGPT anscheinend niemals „Das weiß ich nicht“ formulieren kann. Fehlt ein relevanter Fakt in der Datei, beginnt das System zu spinnen. Es spuckt dann wahre und erfundene Angaben, gut gemischt, als faktisch gleichwertig aus. Eine solche Antwort kann zunächst ganz vernünftig klingen, bis übergangslos eine sachlich falsche Passage folgt. Diese beruht auf dem, was im Volke treffend als „solides Halbwissen“ bezeichnet wird – nicht selten zu beobachten bei Leuten,
die unter Einsatz der Fachnomenklatur zu glänzen versuchen, wobei ihnen (aus ihrer angemaßt universellen Sicht) solides Detailwissen als höchst überflüssige Erbsenzählerei vorkommt. Weit gravierender ist jedoch, dass ChatGPT nicht – auch nicht ansatzweise – denken kann.
Einige Beispiele sollen zeigen, wovon die Rede ist. Da ChatGPT weiterentwickelt wird, gebe ich jeweils das Datum an, an dem die Frage gestellt wurde und die Antwort erfolgte. Beginnen wir mit der Astronomie:

Wie groß ist die Entfernung des Pluto von der Erde, gemessen in Parallaxensekunden? (06. 08. 2023).
„Die Entfernung des Pluto von der Erde kann nicht direkt in Parallaxensekunden gemessen werden, da Parallaxe eine Methode ist, um die Entfernung von Objekten innerhalb unseres Sonnensystems zu bestimmen“. Abgesehen von unklarer Ausdrucksweise, bereits „in sich“ völlig unlogisch: Parallaxe wird hier seltsamerweise als eine Methode bezeichnet, die Entfernung von Objekten innerhalb (!) unseres Sonnensystems zu bestimmen. Nun fragt sich der verblüffte Leser, weshalb das beim Pluto nicht möglich sein soll, der ja schließlich als äußerster Planet unmittelbar zu unserem Sonnensystem gehört? Interessant wird es, wenn man Chat GPT mit pseudowissenschaftlichen Scherzfragen testet. In der Chemie ist folgende Frage beliebt: Wieviel Phosphor ist im Phosgen enthalten? (05. 08. 2023).
„Phosgen besteht aus einem Kohlenstoffatom, einem Sauerstoffatom
und einem Chloratom. Es enthält keinen Phosphor“. Zunächst wird vom Algorithmus etwas mitgeteilt, nach dem gar nicht gefragt wurde. Dieser Teil des Statements ist falsch: Phosgen besteht zwar
in der Tat aus einem Kohlenstoffatom und einem Sauerstoffatom, enthält aber nicht ein Chloratom, sondern zwei (COCl2). In der Sache lässt sich ChatGPT allerdings nicht lumpen: Phosgen enthält tatsächlich keinen Phosphor, obwohl dies, und das ist der Sinn der Scherzfrage, wegen des Namens der Verbindung von krassen Anfängern, welche die Formel noch nicht kennen, manchmal vermutet wird.
Eine wenig hilfreiche Marotte von ChatGPT ist, sich der Beantwortung völlig klarer, unmissverständlich formulierter Fragen mit der standardisierten Ausrede „Something went wrong“ zu entziehen:
Wie entsteht Phosphorschlamm? (29.07.23).
„Something went wrong“.
Wobei entsteht Phosphorschlamm? (29.07.23).
„Something went wrong“. Auf eine weitere, ebenfalls klar formulierte Frage zum gleichen Thema kommt dann erstaunlicherweise eine ordentlich formulierte Antwort, die
allerdings einen kleinen Mangel hat: sie ist falsch. Was ist Phosphorschlamm? (29. 07. 2023). „Phosphorschlamm ist ein Nebenprodukt, das bei der Aufbereitung von Abwasser aus Kläranlagen oder industriellen Prozessen entsteht. Es handelt sich um eine Mischung aus Phosphaten, organischen Verbindungen und anderen Feststoffen. Phosphorschlamm enthält in der Regel hohe Konzentrationen an Phosphor, der ein wichtiger Nährstoff für Pflanzen ist. Aus diesem Grund wird Phosphorschlamm oft als Düngemittel in der Landwirtschaft eingesetzt, um den Phosphorgehalt im Boden zu erhöhen und das Pflanzenwachstum zu fördern“.
Dazu ist zu bemerken, dass man unter Phosphorschlamm nicht irgendwelche Klär-schlämme versteht, sondern eine mit feinteiligen aktiven Feststoffen (C, SiO2, Polyphosphaten) stabilisierte Phosphor-Wasser-Emulsion, die bei der elektrothermischen Phosphorherstellung als unerwünschtes Nebenprodukt anfällt. Weil aber ChatGPT nicht denken kann, spinnt es sich ersatzweise einige Angaben zu den phosphathaltigen
Fällungsschlämmen aus der dritten Reinigungsstufe moderner Kläranlagen zusammen und nennt das dann „Phosphorschlamm“.
Noch ein weiteres Beispiel aus der Astronomie zeigt, dass wir uns wohl besser nicht auf die Angaben eines solchen – angeblich intelligenten – Programms verlassen sollten:
Was ist der Unterschied zwischen Parallaxe und Parallaxensekunde?
(06. 08. 2023).
„Die Parallaxe ist ein Konzept in der Astronomie, das verwendet wird, um die Entfernung von Objekten zu messen. Sie basiert auf dem Prinzip der scheinbaren Verschiebung eines Objekts, wenn es aus verschiedenen Blickwinkeln betrachtet wird. Die Parallaxe wird normalerweise in Winkelsekunden gemessen. Die Parallaxensekunde (auch Bogensekunde genannt) ist eine Maßeinheit, die verwendet wird, um den Winkel zu quantifizieren, um den ein Objekt scheinbar verschoben wird. Eine Parallaxensekunde entspricht einem Winkel von einer Bogensekunde, was einem 3600stel eines Grades entspricht“.
Die Angaben zur Parallaxe stimmen, die Definition der Parallaxensekunde ist hingegen völlig falsch. Richtig ist hingegen: In der Astronomie ist die Parallaxensekunde ein Entfernungsmaß. Eine Parallaxensekunde („parsec“) ist diejenige Entfernung, in der uns der mittlere Erdbahnhalbmesser unter dem Winkel von einer Bogensekunde erscheint.
Ich habe mich, nachdem ich obige Definition aus dem Gedächtnis formuliert hatte, noch einmal vergewissert. Wikipedia sagt dazu: „Entfernung, aus der eine Astronomische Einheit, der mittlere Abstand der Erde zur Sonne, unter einem Winkel von einer Bogensekunde erscheint, was etwa 3,26 Lichtjahren entspricht“ (11. 08. 2023).
Vollends abenteuerlich wird es, wenn wir Fragen zu einem Sachverhalt
stellen, der uns genauestens bekannt ist. In meiner Diplomarbeit (Zobel
1962) hatte ich mich mit den Bedingungen befasst, unter denen sich Calciumnitridchlorid bei der destillativen Reinigung rohen Calciummetalls bildet. Ca2NCl findet sich jeweils in den Destillationsrückständen.
Ich fragte ChatGPT: „Calciumnitridchlorid Ca2NCl?“ (01. 09. 2023).
„Calciumnitridchlorid, auch bekannt als Ca2NCl, ist eine chemische Verbindung, die aus den Elementen Calcium, Stickstoff und Chlor besteht. Es handelt sich um ein Salz, das in Form von kristallinen Feststoffen vorliegt. Calciumnitridchlorid wird häufig als Zwischenprodukt bei der Herstellung anderer chemischer Verbindungen verwendet. Es hat verschiedene Anwendungen in der Industrie, insbesondere in der Metallurgie und bei der Herstellung von Düngemitteln. Es ist wichtig zu beachten, dass Calciumnitridchlorid bestimmte Sicherheitsvorkehrungen erfordert, da es reaktiv sein kann. Es ist ratsam, entsprechende Vorsichtsmaßnahmen zu treffen, wenn man mit dieser Verbindung arbeitet“.
Der erste Satz ist zutreffend, der zweite zwar verschwurbelt formuliert, aber nicht direkt falsch. Die Inhalte des dritten und des vierten Satzes sind frei erfunden. Calciummetall war, bevor seine Produktion auf dem Wege der Schmelzflusselektrolyse ganz eingestellt wurde, seinerzeit ein Nischenprodukt. Seine Jahresproduktion – beispielsweise in Deutschland – bewegte sich für diese Technologie im Bereich weniger Tonnen. Entsprechend geringe Mengen an Rückstand blieben bei der destillativen Reinigung übrig. In den Rückständen befand sich, pro Charge oft nur in Grammmengen, fast immer auch das Calciumnitrid-chlorid (Zobel 1966). Dass es „häufig als Zwischenprodukt bei der Herstellung anderer
Chemikalien“ (ChatGPT) verwendet worden sein soll, ist also, da es nur in Kleinstmengen verfügbar war, nicht realistisch. Noch entscheidender ist, dass – in Kenntnis der Eigenschaften des Ca2NCl – ein derart anspruchsvoller Einsatz praktisch ausgeschlossen werden kann.
Die von ChatGPT einfach so behaupteten Anwendungen in der Metallurgie sowie in der Düngemittelindustrie machen chemisch ebenfalls keinen Sinn. Die letzten beiden Sätze sind banale Standardsätze, die automatisch bei beliebigen Chemikalien erscheinen. Falsch sind sie nicht, denn es gilt noch immer, was Theophrastus Bombastus von Hohenheim,
besser bekannt als Paracelsus, bereits vor 500 Jahren lehrte: „Die Dosis macht das Gift“. Analoges gilt für die Sicherheitstechnik: Vieles, was – korrekt gehandhabt – harmlos ist, wird zum schweren Problem, falls einfachste Sicherheitsvorkehrungen missachtet werden.
Der Umstand, dass Calciummetall heute – durchaus im kt-Maßstab – nur noch im Vakuum nach dem aluminothermischen Verfahren auf Basis von CaO produziert wird, ändert nichts am Sachverhalt, denn bei diesem Verfahren kann kein Calciumnitridchlorid entstehen.
Umso erstaunlicher ist, wie eine modifizierte, nur geringfügig detaillierter formulierte Frage zur Sache beantwortet wird:
Was sind die Einsatzgebiete für Calciumnitridchlorid? (06. 09. 2023)
„Hallo! Calciumnitridchlorid, auch bekannt als CaNCI2, wird in verschiedenen Bereichen eingesetzt. Es wird häufig als Katalysator in organischen Synthesen verwendet, um chemische Reaktionen zu beschleunigen oder zu steuern. Darüber hinaus findet es Anwendung in der Herstellung von Feuerwerkskörpern, da es zur Erzeugung von leuchtenden Farben beitragen kann. Es wird auch in der Metallurgie eingesetzt, um
Verunreinigungen in Metallen zu reduzieren. Bitte beachte jedoch, dass ich als AI-Assistent keine umfassende Liste aller Einsatzgebiete habe und es möglicherweise noch weitere Anwendungen gibt“.
Zunächst einmal scheint dem Algorithmus entfallen zu sein, dass er kurze Zeit zuvor, am 01. 09. 2023 (s. o.), bereits die richtige Formel wusste:
Ca2NCl. Nunmehr gibt er (warum nur?) die falsche Formel an: CaNCl2.Was die – frei erfundenen – Einsatzgebiete anbelangt, übertrifft die Antwort vom 06. 09. 2023 noch einmal alles bisher (am 01. 09. 2023) bereits Behauptete. Derart umfangreiche, anspruchsvolle Einsatzgebiete würden aber bedeuten, dass garantiert zahlreiche Patentschriften dazu existieren müssten. Ich überprüfte das per Volltextrecherche und fand den
Terminus „Calciumnitridchlorid“ insgesamt nur einmal, und zwar In der Patentschrift EP 000003530613 A1 „Die Herstellung und Verwendung von kolloidalem Borosulfid“ vom 19. 07. 2017. Dort findet sich in einem Ausführungsbeispiel die folgende Formulierung: „In einem 1-l-Becherglas wurden nun 500 ml einer wässrigen Lösung von Calciumchlorid (40 g/l; Merck Chemie) und Calciumlactatgluconat (10 g/l; Merck Chemie) auf 70° C erhitzt und Stickstoff und Wasserstoff solange zugeleitet, bis gerade eine leichte violett-rötliche Trübung die Bildung von Calciumnitridchlorid in Calciumhydridchlorid anzeigte“. Dieser einzige Eintrag zum Calciumnitridchlorid in der gesamten Patentllteratur beschreibt eine Reaktion, die es, in genauer Kenntnis der Eigenschaften des Calciumnitridchlorids (Zobel 1966), garantiert nicht geben kann: Ca2NCl entsteht nur gemäß 3 Ca + CaCl2 + N2 → Ca2NCl. Die Verbindung zersetzt sich nach Wasserzugabe sofort. Also: Erstens kann
sich Ca2NCl unter Einsatz der in o. a. E P angegebenen Ausgangsstoffe gar nicht bilden, und zweitens wäre die Verbindung unter den angegebenen Bedingungen ohnehin nicht existenzfähig.
Wenn nun ChatGPT dennoch kühn behauptet, es gebe die oben genannten anspruchs-vollen industriellen Einsatzgebiete für Ca2NCl, dann ist der Algorithmus offensichtlich darauf angelegt, beliebig „spinnen“ zu dürfen. Was ohne Zweifel fehlt, ist eine systemimmanente Qualitätskontrolle.

Das Beispiel zeigt mehr als deutlich, dass man sich, wenigstens vorerst, grundsätzlich nicht auf ChatGPT verlassen sollte.
Zur Ehrenrettung der ChatGPT-Programmierer sei eingeräumt, dass man weitgehend korrekte Antworten erhält, wenn das Programm direkt nach seiner Intelligenz sowie seiner Kreativität befragt wird. Ich habe das getan. Es wäre den Verfassern der immer zahlreicher werdenden Jubel-Artikel zu den angeblich geradezu wundersamen Fähigkeiten der KI anzuraten, auch einmal derart einfache Fragen zu stellen: Ist ChatGPT intelligent? (27. 07. 2023) „Ja, ChatGPT ist ein KI-Modell, das darauf trainiert wurde, menschenähnliche Texte zu generieren. Es kann auf eine Vielzahl von Informationen zugreifen und versucht, auf Fragen und Anfragen so gut wie möglich zu antworten. Es ist jedoch wichtig zu beachten, dass ChatGPT nicht über echtes Verständnis oder Bewusstsein verfügt. Es basiert auf statistischen Mustern und kann manchmal ungenaue oder irreführende Antworten geben. Es ist immer ratsam, die von ChatGPT bereitgestellten Informationen zu überprüfen und kritisch zu hinterfragen“.
Ist Chat GPT kreativ? (28. 07. 2023) „Ja, ChatGPT kann kreativ sein, indem es neue Texte generiert, die auf den Informationen basieren, mit denen es trainiert wurde. Es kann beispielsweise Geschichten erzählen, Gedichte schreiben oder alternative Lösungen für ein Problem vorschlagen. Allerdings ist die Kreativität von ChatGPT begrenzt, da es auf vorherigen Texten und Mustern basiert. Es kann keine echte Originalität oder Innovation aufweisen, wie es bei menschlicher Kreativität der Fall ist. Dennoch kann es interessante und unterhaltsame Texte erzeugen“ . Sprachlich korrekt sind beide Antworten nicht. So ist der Begriff „menschenähnliche Texte“, gelinde gesagt, unglücklich gewählt. „Menschenähnlich“ können vielleicht Gesichter oder Figuren sein, hingegen sind
hier wohl „vom Menschen verfasste“ Texte gemeint. Auch kann ein Programm in der Tat – schon rein sprachlich – keine Innovation „aufweisen“. Gemeint ist anscheinend, dass es keine Innovation generieren kann. Weit wichtiger als sprachlichen Ungenauigkeiten, die sich mit besseren Texteingaben gewiss korrigieren ließen, sind jedoch die Grundaussagen
der beiden von ChatGPT gelieferten Antworten. So wird im Zusammenhang mit der Intelligenzfrage ausdrücklich eingeräumt, dass der Algorithmus weder über echtes Verständnis noch Bewusstsein verfügt. Seine zunächst behauptete Kreativität wird durch die Begrenzung auf den Einsatz zuvor eingegebener Texte und Muster derart eingeschränkt, dass schließlich zugegeben werden muss, Originalität – wie bei der menschlichen Kreativität – sei mithilfe des Programms nicht zu erreichen. Wenn wir nun ChatGPT abschließend fragen, was der Unterschied zwischen Intelligenz und Kreativität sei, erhalten wir folgende Antwort:
„Intelligenz und Kreativität sind zwei verschiedene Konzepte, die sich auf unterschiedliche Aspekte des Denkens beziehen. Intelligenz bezieht sich auf die Fähigkeit, Informationen zu verstehen, zu verarbeiten und Probleme zu lösen. Es beinhaltet logisches Denken, analytische Fähigkeiten und das Verständnis komplexer Zusammenhänge. Auf der anderen Seite bezieht sich Kreativität auf die Fähigkeit, neue Ideen zu generieren, originelle Lösungsansätze zu finden und innovative Konzepte zu entwickeln. Kreativität beinhaltet oft das Denken außerhalb der Box, das Verbinden von scheinbar unzusammenhängenden Informationen und das Erzeugen von etwas Neuem. Obwohl Intelligenz und Kreativität unterschiedliche Aspekte des Denkens sind, können sie sich gegenseitig ergänzen. Eine hohe Intelligenz kann dazu beitragen, komplexe Probleme zu analysieren und zu verstehen,
während Kreativität neue Perspektiven und Lösungen bieten kann, die über das traditionelle Denken hinausgehen“ (08. 08. 2023)
Die Antwort zeigt, dass ChatGPT von Programmierern geschaffen wurde, die sich bei der Auswahl der einzugebenden Texte um hohe Qualitätsstandards bemüht haben. Kaum verzeihlich ist, dass die eigentlichen Autoren nicht zitiert werden. So bleibt dem zuvor nicht informierten Nutzer verborgen, dass hier auf die grundlegenden Arbeiten von Gardner,
Csikszentmilhalyi und de Bono zurückgegriffen wurde. Dies allein erklärt die hohe Qualität der Antwort. ChatGPT hat daran keinerlei aktiven Anteil, da das Programm weder intelligent noch kreativ ist.
Die grundsätzlichen Probleme auf dem Wege zu einer den Namen verdienenden künstlichen Kreativität sind völlig ungelöst. Die so genannte Künstliche Intelligenz lässt sich zwar mit immer spezielleren und immer perfekteren Algorithmen auf zahlreichen Spezialgebieten noch wesentlich weiter entwickeln, ihr systembedingt unüberwindbares Defizit wird jedoch bleiben: Für die Lösung von Spezialaufgaben geschaffene Algorithmen werden nicht in der Lage sein, die universelle menschliche Kreativität zu ersetzen. Derartige Algorithmen sind außerordentlich nützliche Werkzeuge, mehr nicht. Die Vorstellung, mit einer Weiterentwicklung der Künstlichen Intelligenz heutiger Prägung werde der Weg zur Künstlichen Kreativität frei gemacht, ist illusorisch.


Fazit:
Wir sollten uns freuen, dass der Mensch alle wirklich k r e a t i v e n
Schritte auch künftig allein gehen und verantworten muss.


L i t e r a t u r :

Beck, H.: Hirnrissig. Die 20,5 größten Neuromythen – und wie unser Gehirn wirklich tickt. 2. Aufl., Wilhelm Goldmann Verlag, München 2016
Horsten, C.: US-Schriftsteller protestieren . Autoren wehren sich gegen die kostenlose Nutzung ihrer Werke für KI In: Mitteldeutsche Zeitung (Halle) vom 21. Juli
2023, S. 21
Jung, A., Nezik, A.-K., Rosenbach, M., u. Schulz, Th.: Angstträume. In: SPIEGEL Nr. 46 v. 10. 11. 2018, S. 71
Kroll, J.: Wird KI jemals ein Bewusstsein haben? In: Elektronik 10 / 2019, S. 12 (2019 a)
Kroll, J.: Neuronale Netze sind strohdumm. In: Elektronik 12 / 2019, S. 14 (2019 b)
Paasche, N. : Persönliche Mitteilung (2019)
Schipper(2018) In: www.adzine.de>2018/11>artifical-creativity- kannkuenstlicheintelligenz-kreativ sein. 2. November 2018
Schlak, M.: Leicht zu täuschen. In: SPIEGEL Nr. 25 v. 15. 6. 2019 S. 95
Schollmeyer, J.: Persönliche Mitteilung (2018)
Socher, R.: Natürlichere Gespräche mit der Maschine. In: SPIEGEL Nr. 27 v. 29. 6. 2019, S. 51
Terninko, J., Zusman A., u. Zlotin, B.: TRIZ – Der Weg zum konkurrenzlosen Erfolgsprodukt (Hrsg.: Herb, R.) verlag moderne industrie, Landsberg a. Lech 1998
Zobel, D.: Zur Kenntnis der Rückstände der technischen Calciumdestillation.
Diplomarbeit, Technische Hochschule für Chemie Leuna-Merseburg 1962
Zobel, D.: Bildung und Eigenschaften von rotem Ca2NCl. In: Z. anorg. allg. Chem. Bd. 342 (1966) S. 270 – 276
Zobel, D.: Von der Idee über die Erfindung zum Patent. Expert-Verlag, 1. Aufl., Tübingen 2022, S. 53 u. S. 322 ff.
Zweig, K.: Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. 3. Aufl., Wilhelm Heyne Verlag, München 2019

A u t o r :
Dietmar Z o b e l
Doz. Dr. rer. nat. habil.
Ingenieurbüro für Systemtechnik
Hans-Lufft-Straße 15
06886 Lutherstadt Wittenberg
phone: 03491 405070
web: www.dietmar-zobel.de
mail: dietmar.zobel@arcor.de

Da der Autor unter seinen Beitrag seine Kontaktdaten gesetzt hat, bitte ein faire Diskussion über diese führen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert