Hallo zusammen,
ich möchte hier mal unabhängig von Pilzen mit einigen falschen Vorstellungen über KI aufräumen.
So eine KI denkt in keinster Weise selber, auch wenn diverse Firmen, die mit KI-Produkten ihr Geld verdienen, gerne behaupten. Letztlich beruhen die gesamten KI-Anwendungen auf Mustererkennung und da hat KI offenbar auch gewisse Stärken (Oder um meinen Doktorvater zu zitieren: "Mustererkennung kann ich. Das können sogar Affen und Mediziner."). Ein Large Language Model (LLM) wie ChatGPT ist ja einfach mit Unmengen an Texten gefüttert worden (hier liegt auch ein Problem: Mittlerweile ist fast alles, was die Menschheit so an Text produziert hat, dort schon verwurstet worden, d.h. man hat jetzt kein weiteres Trainingsmaterial. Zum Teil kommen Leute dann auf die Idee, die KI mit KI-generierten Texten weiter zu trainieren, das kann aber potentiell zu großen Problemen führen). Die KI hat jetzt aber keinesfalls das gesamte Wissen der Menschheit verstanden, vielmehr hat das LLM nur gelernt, mit welcher Wahrscheinlichkeit ein gewisses Wort auf eine gegebene Wortfolge folgt. Wenn man also "Ich esse gerne..." hat, dann wird die KI das mit hoher Wahrscheinlichkeit mit Schokolade ergänzen, während Rosenkohl eine eher geringe Wahrscheinlichkeit hat. Das bedeutet aber insbesondere auch, daß der Output eines LLM nicht deterministisch ist.
Bezogen auf Pilze bedeutet das dann, daß die KI mit Texten über Pilze gefüttert wurde und dann Sätze produziert, die grammatikalisch korrekt sind (da passieren praktisch keine Fehler, weil jeder Satz, mit dem die KI trainiert wurde, grammatikalisch korrekt ist und somit zum Training der Grammatik des LLM taugt) und der inhaltlich mehr oder weniger plausibel ist, aber wegen des fehlenden Determinismus eben auch jedes Mal etwas anders aussehen kann. Wenn genügend alte Bücher zum Training verwendet wurden (und das wird ja potentiell der Fall sein, weil die gemeinfrei sind und als Texte im Internet eher verfügbar sind als das neueste Pilzbuch), dann mag so eine KI eben auch mal behaupten, der Kahle Krempling sei ein vorzüglicher Speisepilz.
Was die Bilderkennung angeht, ist das für KI eigentlich ein Heimspiel, weil es hier ja um Mustererkennung geht. Problem ist: Muster erkennt man nur, wenn man hinreichend viel Trainingsmaterial hat, d.h. man bräuchte hier hunderte Fotos einer jeden Pilzart. Als Mykologen wissen wir, daß ein Foto eines Pilzes meistens nicht reicht, es braucht Fotos von oben und unten und ggfs. von Details wie der Lamellenschneide und in den meisten Fällen auch mikroskopische Eigenschaften (und spätestens hier wird es ganz schwer, wie soll die KI auf einem Sporenfoto die Sporengröße erkennen). So viel können Karl, Thorben und ich gar nicht mikroskopieren
KI hat gegenüber dem Menschen auch den Nachteil, daß ihr niemand erklärt, auf welche Details zu achten ist. Wenn ich weiß, daß ich zur Unterscheidung der Pilze X und Y die Farbe der jungen Lamellen beurteilen muß, hilft das natürlich viel mehr als wenn ich da einfach einen Wust aus hunderten Bildern bekomme und dann selber die Unterscheidungsmerkmale herausarbeiten soll.
Zum Abschluß: Warum erscheint uns die Textfähigkeit von KI jetzt so viel beeindruckender als die Bilderkennung? Ich vermute, das liegt daran, daß unser Hirn Bilderkennung schon in einer sehr frühen Lebensphase beherrscht, während wir das Verfassen von Texten ja erst mühsam in der Schule lernen müssen und es z.T. ja bis ans Lebensende als schwer empfunden wird (so geht es mir zumindest beim Verfassen wissenschaftlicher Texte, die fließen mir nicht einfach so aus der Feder wie Donald Trump die Tweets).
Björn