Grenzen der LLMs

Man nennt es KI, also künstliche Intelligenz, was uns ChatGPT, Gemini, Grok und Konsorten bieten.
Aber was haben diese LLMs (Large language models) eigentlich mit Intelligenz zu tun?

Am Ende sind es nur gut dressierte Papageien, die nicht im geringsten „verstehen“, was sie von sich geben.

Das haben sie mit vielen Menschen gemein.

Aber ernsthaft, natürlich haben die heutigen LMM-basierten Systeme ihre Grenzen. Aber sie können manche Dinge schon heute besser als die meisten Menschen. In anderen Bereich haben sie ihre Probleme, wie Hossenfelder beschreibt: Abstrahierung, logisches Schlussfolgern, Generalisierung.

Trotzdem ist es erstaunlich, zu welchen kognitiven Leistungen sie bereits fähig sind und ob sie etwas „verstehen“ ist eine recht müßige Frage, solange wir nicht verstehen, was „verstehen“ genau bedeutet.

Vor allem sollten wir nicht vergessen, dass LLMs nur ein Bereich der AI sind und wir erleben gerade erst den Anfang einer Entwicklung, die niemand vorhersagen kann.

Der Neurowissenschaftler und KI-Unternehmer Gary Marcus warnt seit Jahren, dass der Boom der künstlichen Intelligenz auf einem Missverständnis beruht. Jetzt häufen sich auffällig die Stimmen, die auf seine Linie einschwenken.

Der Neurowissenschaftler Gary Marcus war in der KI-Branche zeitweise so unbeliebt, dass es bei OpenAI ein eigenes missvergnügt blickendes Emoji mit seinem Gesicht gab. Sam Altman, der Chef des KI-Unternehmens, bezeichnete ihn öffentlich als Troll. Schon vor über einem Jahrzehnt hat er zum ersten Mal dargelegt, dass die Large Language Models (LLM), die heute jeder geläufigen KI zugrunde liegen, niemals völlig zuverlässig sein werden. Seither ist er nicht müde geworden, in Beiträgen für den New Yorker oder die New York Times, auf Fachkonferenzen und seinen eigenen Social-Media-Kanälen den amerikanischen Tech-Fürsten zu widersprechen: Während diese regelmäßig behaupten, dass die LLMs durch die Nutzung zwangsläufig immer besser werden, sagt Marcus, dass ihnen bestimmte technische Grenzen gesetzt sind, die sie nie überschreiten werden, ganz gleich, wie groß die Datenmengen sind, mit denen man sie füttert. In der Zwischenzeit sind die LLMs zur wichtigsten Technologie der Welt herangewachsen, die weltweiten Investitionen überschreiten heute die Schwelle von drei Billionen Dollar. Für seine Kritik musste sich Marcus viel Spott gefallen lassen, doch das ändert sich gerade spürbar, auch bekannte Köpfe der Branche äußern sich inzwischen deutlich skeptischer über die Potenziale der Technologie.


Ehrlich gesagt habe ich das Problem schon 1993 in meiner Doktorarbeit beschrieben. Aber 2012 wurde die Debatte sozusagen öffentlich. John Markoff hat in der New York Times das optimistische Szenario für die Technologie umrissen, ich einen Tag später die Gegenposition. Die wesentlichen Positionen waren damit in der Welt und haben sich bis heute nicht mehr fundamental geändert.

Was für Positionen sind das?

Das positive Szenario war: Wow, mit GPUs und Big Data können wir so unendlich viel mehr machen, als wir je geglaubt haben! Und meine Gegenposition war, dass die Systeme Probleme mit dem Argumentieren haben werden, mit dem Abstrahieren, der Verallgemeinerung. Dass sie halluzinieren werden. Dass ihnen klare technologische Grenzen gesetzt sind. Und genau darüber reden wir heute, 14 Jahre später, immer noch.

Woran liegt diese Begrenztheit, technisch gesehen?

Diese Modelle sind gut darin, auf Basis riesiger Datenmengen Wahrscheinlichkeiten auszurechnen. Sie verstehen aber nicht, worüber sie sprechen. Und diese statistische Hochrechnung von Wahrscheinlichkeiten stößt an ihre Grenzen, wenn es um Spezialfälle geht, die in den zugrundeliegenden Daten nicht oder kaum vorkommen. Wir erleben das dauernd.

Aber wenn die Datenbasis das gesamte Internet ist, könnte das nicht schon reichen?

Das ist die größtmögliche Datenbasis, aber es gibt immer etwas Neues in der Welt, und dann versagen diese Modelle. Wenn Sie sich zum Beispiel auf einmal in einer amerikanischen Gegenwart wiederfinden, in der Einsatzkräfte Zivilisten auf der Straße erschießen, gibt es dazu wenig Daten, mit denen diese Modelle arbeiten könnten.

Sind das nicht extreme Ausnahmen?

Aber die gibt es in der Realität eben ständig. Mein Lieblingsbeispiel ist die Geschichte eines Tesla-Fahrers, der sein Auto via App zu sich gerufen hat. Auto und Fahrer befanden sich aber auf einer Flugzeugmesse und der Tesla fuhr geradewegs in einen fabrikneuen, 3,5 Millionen Dollar teuren Jet. Statistisch gesehen fahren Autos nicht gerade häufig über Flugzeugmessen, aber manchmal kommt es eben doch vor. Menschen, Fahrräder, Autos hätte der Tesla erkannt, weil die in seiner Datenbasis hinterlegt sind. Ein Flugzeug kam darin nicht vor, und das System versagte.

OT: das ist aber ein billiger kleiner Jet gewesen- so ein Glück. :wink:

Preisliste Jets: Wie viel kostet ein Privatjet?

ja, das Beispiel spielt im Millionärsprekariat, deswegen ist es ja so traurig :slight_smile:

Das ist falsch. Hier einige Gegenbeispiele:

  • Computer Vision (Bildverarbeitung): Gesichtserkennung, medizinische Bildanalyse (Tumorerkennung) oder autonomes Fahren basieren primär auf Convolutional Neural Networks (CNNs). Diese „sehen“ Pixelmuster, statt Texte zu verstehen.
  • Empfehlungssysteme: Die Algorithmen von Netflix, Spotify oder Amazon nutzen meist Collaborative Filtering oder Graph Neural Networks (GNNs), um Vorlieben zu berechnen.
  • Robotik & Steuerung: Die Stabilisierung von Drohnen oder die präzisen Bewegungen von Fabrikrobotern nutzen oft Reinforcement Learning (RL), bei dem die KI durch Versuch und Irrtum lernt, anstatt auf Textdaten zu trainieren.
  • Klassisches Machine Learning: In der Wirtschaft werden für Vorhersagen (z. B. Kreditwürdigkeit, Aktienkurse, Wetter) oft Gradient Boosted Trees (wie XGBoost) oder Regressionsmodelle verwendet. Diese sind für tabellarische Daten viel effizienter als ein riesiges Sprachmodell.

[Ich habe das der Einfachheit halber von Gemini generieren lassen, aber jedes Beispiel ist korrekt].

Woher nehmen wir die Arroganz zu glauben, dass das menschliche Verstehen dem (zukünftigen) maschinellen Verstehen prinzipiell überlegen sei? Besteht unser Verstehen nicht auf dem anthropo- und ontogenetischen Training unseres Gehirns mit Millionenfachen Erfahrungen, also auch „nichts anderes“ als Big Data?

Oder glaubt hier jemand unser Verstand funktioniere mittels göttlicher Eingebungen?

ich verstehe ihn so, dass der menschliche Verstand in der Lage ist, neue Informationen aufgrund der Gesamtsicht einzuordnen und zu bewerten, und dass die KI dazu nicht in der Lage ist bzw dass sie dabei Fehler macht.

Diese Fehlerquote begrenzt ihren Einsatzbereich.
Es gibt Funktionen, die keine Fehler vertragen, siehe das Tesla-Beispiel.

Er sagt ja nicht, dass KI nix taugt, nur, dass sie Grenzen hat, dass diese Grenzen relevant sind, und dass sie mit jetzigen Technologie nicht überwunden werden können.
Dafür sei eine andere Technologie nötig.

Was müsste eine universelle künstliche Intelligenz denn können, was die LLMs heute nicht können?

Sie müsste in der Lage sein, sich ein Bild von einer Welt zu machen. Irgendwann wird Ihr Kind, das hier eben durchs Bild gelaufen ist, anfangen, Harry Potter zu lesen. Wenn Ihr Kind Harry Potter liest, wird es in seinem Gehirn ein Modell einer Welt anlegen, in der Menschen auf Besen fliegen können, und es wird in der Lage sein, über diese Welt getrennt von unserer Welt nachzudenken. Es wird keinen Moment glauben, dass Sie mit einem Besen davonfliegen könnten. Es hat in diesem Moment ein Modell dieser Welt erstellt. Menschen tun das automatisch.

Erwachsene auch?

Erwachsene auch. Ich habe zum Beispiel ein Modell einer Welt im Kopf, wie sie politisch funktioniert hat, bevor Donald Trump Präsident wurde. Und jetzt bin ich gerade dabei, ein neues Modell zu erstellen. Durch diesen Prozess gehen wir momentan alle. Die meisten Menschen wissen nicht, dass sie über diese Fähigkeit verfügen, aber sie sind extrem gut darin, und für das, was wir Intelligenz nennen, ist sie essenziell. Wir wissen aber eben noch nicht, wie man das einer Maschine beibringen kann. Wir wissen nur, wie man Chatbots baut, die den Eindruck erzeugen, sie wären dazu in der Lage, und zwar ungefähr 30 Minuten lang, bis sie sich völlig verheddern. Aber wenn es um die universelle künstliche Intelligenz geht, werden wir etwas völlig Neues brauchen und noch einmal ganz von vorn anfangen müssen.
Glauben Sie denn, dass so eine universelle künstliche Intelligenz je gebaut werden kann?

Irgendwann sicher, es gibt viel Forschung in diese Richtung. Und wenn wir so weit sind, hoffe ich, dass wir eine künstliche Intelligenz bekommen, die vertrauenswürdiger ist, als die, die wir jetzt haben. Den heutigen Modellen kann man beispielsweise nicht beibringen, Wahnvorstellungen eines Menschen zu erkennen und verantwortungsvoll darauf zu reagieren. Das hat mitunter fürchterliche Folgen, bis hin zu Selbstmorden.

Viele Jahre standen Sie mit dieser Meinung weitgehend allein da. Jetzt wechseln immer mehr prominente Köpfe auf Ihre Seite: Ilya Sutskever hat die Entwicklung neulich als Sackgasse bezeichnet, Demis Hassabis, der Chef von Google DeepMind, hat gerade erst vor wenigen Tagen erstmals öffentlich über die Grenzen der Technologie gesprochen. Seit Oracle überraschend schlechte Geschäftszahlen vorgelegt hat, scheint die Branche spürbar nervös zu werden. Wie nehmen Sie das wahr?

Demis hat jetzt tatsächlich ziemlich genau das gesagt, was ich immer gesagt habe: dass Large Language Models niemals ihre Halluzinationen überwinden werden, wenn man sie nicht mit Weltmodellen kombiniert. Aber auch der Microsoft-CEO Satya Nadella hat neulich vor zu hohen Erwartungen gewarnt. Selbst OpenAI hat angefangen, ihre Modelle im Stillen mit anderen Technologien zu kombinieren, Anthropic und Amazon ebenfalls. All diese Firmen haben in den vergangenen Monaten anerkannt, dass die Large Language Models niemals zu einer echten künstlichen Intelligenz heranreifen werden. Sie behaupten es, wenn sie Investoren bei der Stange halten wollen, aber sie wissen, dass es nicht stimmt.

Das gehört zu den Annahmen, die bisher noch niemand beweisen oder widerlegen konnte. Bei der KI kannst du aber irgendwann auch nicht mehr nachvollziehen, woher die Eingebungen kommen, es könnten also auch göttliche Eingebungen sein. :slightly_smiling_face:

Niemand ist in der Lage scharf zu definieren, was Intelligenz und Kreativität ausmacht.

Ich neige zu Ansicht, dass Intelligenz genau das ist, was KI nachahmt - ein mehrstufiges multidimensionales Datenfitting. Kreativität ist dabei Ausdruck der Ausformung der einzelne Fitting Stufen - der Datenauswahl. Akzeptiert man dies so ist der Schluss unausweichlich, dass KI in der Lage sein wird, den Menschen an Intelligenz und Kreativität zu übertreffen und schließlich zu einer Superintelligenz zu entwickeln.
Aktuell ist unklar, wie die komplexen Fittingprozesse, für die KI jetzt noch Millionen von Prozessoren in Speicherchips benötigt, in einer so wenig leistungsfähigen Struktur wie dem menschlichen Gehirn ablaufen könne. Aber auch hier wird KI Antworten liefern und diese Antworten gegebenenfalls dazu nutzten, um sich selbst zu optimieren - ohne Hilfe durch den Menschen.

Vielleicht gibt es Superintelligenz schon im Universum. Sie hat uns nur nicht erreicht, weil die Distanzen schier unüberwindlich sind und die Physik auch der ausbreitung von Superintelligenz Grenzen setzt.

Jein, die Beispiele mögen soweit korrekt sein, enthalten aber auch wieder Strohmänner oder sonstige Figuren …
Bei einem LLM-Text ist immer die Quelle (Gemini :+1:) und der Prompt wichtig aus meiner Sicht.

  1. Es gibt nicht die KI. Die Grundlage der meisten heutigen KI-Systeme sind die sog. neuronalen Netze, ein stark vereinfachtes Modell der Nervenzellen und Synapsen in Gehirnen.
  2. Einordnen und bewerten: beim Training der neuronalen Netze geschieht genau das.
  3. Fehler machen Menschen auch

Hier hat er recht, LLMs sind erstmal Modelle unserer Sprache und können nicht zwischen wahr und falsch unterscheiden. Aber LLMs sind nur eine mögliche KI-Anwendung. Wir dürfen nicht LLMs und KI gleichsetzen. Heutige Chatbots wie Gemini gehen weit über einfache LLMs hinaus.

Und ja, LLMs erfahren einen vie eingeschränkteren Teil der Wirklichkeit als Menschen, weil sie nicht anderes können als Text lesen und Bilde analysieren. Ihnen fehlte das weiterreichende Sensorium, über das Menschen verfügen.

Das vorausgeschickt, es ist weder genau klar wie die LLMs oder andere neuronale Netze funktionieren noch wie der Mensch denkt. In beiden Fällen kennt man die zugrunde liegenden Funktionsweisen recht gut, aber die aus Milliarden natürlichen oder künstlichen Neuronen emergierenden Mechanismen sind bisher nur sehr ungenau verstanden. Deswegen lässt sich auch nicht seriös behaupten, dass der menschliche Verstand für alle Zeiten überlegen wäre.

Die Menscheit hat schon schwere Kränkungen hinnehmen müssen:

  • die Erde ist nicht der Mittelpunkt der Welt sondern ein Gesteinsbrocken der um eine von Milliraden Sonnen kreist, die am Rande einer von Milliarden Galaxien ist
  • der Mensch ist nicht von Gott nach seinem Ebenbild geschaffen sondern stammt von einem affenartigen Tier ab

Jetzt kommt eine dritte hinzu:

  • der menschliche Verstand steht nicht über allem, es gibt Maschinen die ihm z.T. heute schon überlegen sind.

Die Maschine sammelt den Verstand aller einzelnen Menschen, bzw. das, was diese Menschen geschrieben, gemalt, musiziert oder fotografiert haben. Also ein Superhirn mit einem riesigen Gedächtnis. Aber kann die Maschine wirklich kreativ sein und etwas völlig neues erfinden?

Wie definierst du „völlig neu“?

Nehmen wir mal Literatur:

Tolkien hat mit dem “Herr der Ringe” eine eigene Welt mit eigener Sprache, Geographie, Gesellschaftordnung und Lebewesen erfunden. So etwas gab es vorher noch nicht.

Ebenso hat Rowling vergleichbares bei Harry Potter erschaffen, Astrid Lindgren mit Pippi Langstrumpf eine völlig neue Figur.

Terry Pratchett hat zwar seine Welt an bereits bestehende Fantasywelten angelehnt und eine Parodie daraus gemacht, aber auch ein “eigenes Universum” geschaffen.

Eine KI könnte immer nur in Anlehnung auf bereits Bestehendes eine Imitation erschaffen, aber nie eine völlig neue Idee.

(P.S. ich lese natürlich nicht nur solchen Kram, sondern auch schlauere Bücher)

Wieso nicht? Hier eine Schöpfung von Gemini

Hier ist ein Entwurf für „Aethelgard – Die Welt der schwebenden Gezeiten“:


:globe_showing_europe_africa: Die Welt: Aethelgard

Aethelgard ist kein Planet im herkömmlichen Sinne. Es ist ein gigantischer, vertikaler Zylinder aus dichtem, leuchtendem Nebel, in dem tausende von „Insel-Scherben“ treiben. Es gibt keinen festen Boden; wer fällt, fällt ewig – oder bis er in den „Kern“ stürzt, eine weiße Glut am unteren Ende der Welt.

:wind_face: Die Mechanik: Das Äther-Lumen

Anstelle von Sonne und Mond gibt es das Lumen. Das Licht kommt aus dem Nebel selbst.

  • Tag: Der Nebel leuchtet in einem warmen Goldton (die „Flut“).
  • Nacht: Der Nebel kühlt ab und schimmert tiefviolett (die „Ebbe“).

:dna: Die Bewohner: Die Lithos & Die Aeri

In dieser Welt haben sich zwei dominante Lebensformen entwickelt:

  1. Die Lithos: Wesen mit einer Haut aus organischem Kristall. Sie leben auf den größeren Inseln und „essen“ Licht, indem sie sich während der Flut regungslos sonnen. Sie sind die Bewahrer der Geschichte.
  2. Die Aeri: Libellenartige Humanoiden mit vier Flügeln. Sie bauen keine Häuser, sondern weben riesige Netze zwischen den kleineren Scherben. Sie sind Nomaden und Händler.

:anchor: Die Technologie: Schwerkraft-Segeln

Da es kein Wasser gibt, reisen die Bewohner mit Segelschiffen, die keine Masten haben, sondern riesige Magnet-Anker. Diese Anker stoßen sich von den metallhaltigen Kernen der Inseln ab. Ein guter Kapitän steuert sein Schiff nicht durch Wind, sondern durch das Spiel mit der Anziehungskraft.


:warning: Die Gefahr: Der „Blight-Whisper“

Es gibt keine klassischen Monster. Die Gefahr in Aethelgard ist akustisch. Der Blight-Whisper ist ein tiefer, vibrierender Ton, der gelegentlich aus dem Kern aufsteigt. Wer ihn hört, verliert das Gefühl für „Oben“ und „Unten“ – ein Todesurteil in einer Welt ohne Boden.

„In Aethelgard ist die Richtung nicht dein Weg, sondern dein Schicksal.“ – Altes Sprichwort der Aeri.

:laughing: :rofl: Mache ein weise klingenden Spruch aus Richtung, Weg und Schicksal :laughing:

“Wenn der User in greene Forumgard seine Richtung wechselt, findet das Schicksal seinen Weg.” (oder so ähnlich :wink: )

Deine KI-Antwort ist die beste Bestätigung für meine Behauptung, dass sich eine KI nix neues ausdenken kann, sondern wie in deinem Beispiel nur sehr bekannte und beliebte Elemente in Science Fiction Spielen und Filmen herauspickt und neu zusammenwürfelt.

Die Welt Aethelgard: gigantischer, vertikaler Zylinder aus dichtem, leuchtendem Nebel, in dem tausende von „Insel-Scherben“ treiben: Videospiel No Man’s Sky, Aufbruch nach Pandora mit schwebenden „Hallelujah-Berge“ sind ein ikonisches Beispiel. Genshin Impact: Die schwebende Insel Celestia, die über Teyvat schwebt. Cowboy Bebop: Venus wurde mit riesigen schwebenden Pflanzen terraformt, die als Inseln dienen. Skyland: Eine Serie, die auf schwebenden Erdschollen spielt.

Die Mechanik Das Äther-Lumen: „Das Licht aus dem Nebel“ von Kornelia Schmid ist der erste Band einer düsteren High-Fantasy-Trilogie. In einer Welt, in der Nebel Paläste verhüllt, erscheint ein glühendes Licht im Dunst, das eine geisterhafte Bedrohung darstellt.

Die Bewohner Die Lithos & Die Aeri.

Die Aeri: Libellenartige Humanoiden mit vier Flügeln: Geflügelte Fabelwesen mit Menschengestalt gibt es schon in Fabeln, z.B. Elfen. In vielen Fantasy-Werken werden Feen, Elfen oder spezifische Insekten-Völker (Insektoide) mit Flügeln dargestellt, die Libellenflügeln ähneln, um Leichtigkeit und Eleganz zu vermitteln.

Die Lithos Wesen mit einer Haut aus organischem Kristall. In vielen fiktiven Welten (wie in TV Tropes „Crystalline Creature“) werden Wesen beschrieben, die aus kristallinen Strukturen bestehen, pulsieren und in Kolonien wachsen.

Die Technologie Schwerkraft-Segeln: Spelljammer: Das Vorreiter-System für Fantasy-Weltraumsegeln. Schatzplanet (Treasure Planet): Der Disney-Film. Sundered Skies (RPG): Ein Rollenspiel-Setting mit schwebenden Inseln.

Die Gefahr: Der „Blight-Whisper“: In Fantasy-Settings beschreibt ein „Blight Whisper“ oft eine atmosphärische Klangkulisse, die Verderben oder dunkle Magie ankündigt. Er wird häufig als ein tiefer, vibrierender Ton wahrgenommen, der physisch spürbar ist. In Spielen wie Destiny 2 sind „Blights“ (Fäulnis-Zonen) oft mit diesen düsteren Audio-Cues verbunden, die Gefahr und die Präsenz von korrumpierender Energie signalisieren.

Das ist alles nur geklaut und gezogen, gestohlen und geraubt:wink: :

Das zeigt doch nur, wie jeder von jedem abschreibt. Nicht nur die KI, auch die Menschen.

Die Frage ist doch, ob ein menschliches Gehirn in der Lage ist, etwas originär Neues zu erfunden. Das hängt doch sehr davon ab, wie man den Begriff „Neues“ definiert. Ist nicht jedes Neue eine Rekombination von bereits Bekanntem?

Woher kommt diese unerschütterliche Gewissheit, dass das biologische Gehirn etwas kann, zu dem eine nicht-biologische Maschine nie in der Lage sein wird. Ist es der göttliche Funke, der nie in einen Computer fahren wird?

Ich habe keinen Zweifel, dass „Maschinen“ irgendwann weit bessere cognitive Fähigkeiten haben werden als Menschen.

Die für mich eigentlich spannende Frage ist, wie Bewusstsein entsteht und ob das auch in Maschinen entstehen kann. Die Frage ist nur, wie stellt man als außenstehender Bewusstsein fest?

du bist zu fixiert darauf zu belegen, dass eine maschine dem menschen überlegen sein kann, und dass diese einsicht aus verletztem stolz verweigert wird.
ich vermute, dass spätestens seit der erfindung des schachcomputers niemand mehr ernsthaft bestreitet, dass computer vieles besser können als menschliche Hirne.
und wer das heute noch als Schmach empfindet, hat die letzten 20 jahre nicht mitgedacht.

das prinzip ist mE anerkannt.
die frage ist, ob die überlegenheit der maschine grenzen hat.
beim thema kreativität wird es interessant.
auch hier finde ich es aber zu kurz gesprungen, wenn man zeigt. dass eine KI irgendeine mehr oder weniger originelle fabelwelt skizzieren kann. das ist banal.
für mich ist entscheidend, dass die KI das auf Anforderung tut, nicht aus eigenem antrieb und entschluss.
das ist der unterschied zum menschen.

weitere frage ist, ob die KI wirklich neues schaffen kann.
wenn das neue die rekombination des bekannten ist, wohl ja.
aber was, wenn das neue wirklich neu ist?
hätte die KI Einsteins Energieformel erdenken können?
wäre die KI in den 60er Jahren darauf gekommen, dass man den klang einer e-gitarre dadurch verzerren kann, dass man löcher in die lautsprechermembranen sticht, und dass dieser sound die grundlage für eine neue musikrichtung legt?
keine ahnung.

Ich habe nicht den Eindruck.

Ich bezweifle den prinzipellen Unterschied. Der Mensch hat ein Belohnungssystem, welches den Antrieb für die meisten unserer Tätigkeiten zu liefern scheint. Es wäre sicher möglich, etwas analoges in KI-Systeme einzubauen, aber eigentlich will man das doch gerade nicht.

die heutige nicht, die zukünftige vermutlich schon. Einstein ist auf die Formel durch Analyse der bisherigen empirischen Erkenntnisse, durch in Frage stellen einiger bisherigen a priori Annahmen und durch eine Weiterführung der Newton’schen Mechanik. Irgendwann ergibt sich die Formel aus logischen Schlussfolgerung. Er stand auf den Schultern von Riesen.

Ich will damit seine Leistung nicht schmälern, aber er hat nichts gemacht, was prinzipiell nicht auch von einer KI basierend auf Neuronalen Netzen machbar wäre. Er hat auf neuen Pfaden gedacht, aber gerade dieses Finden von neuen Zusammenhängen zwischen bereits bekannte Daten ist ein zentrale Fähigkeit der der KI.

Ich gebe zu, das ist viel Spekulation im Spiel, aber es geht ja um Möglichkeiten in der Zukunft.