Was KI kann und was nicht - Martin Pfister


03.11.2024

„Künstliche Intelligenz ist nicht intelligent“: Was KI kann und was nicht


Switch to English
 

Was ist Intelligenz und was hat es mit der Künstlichen Intelligenz auf sich? Wo liegen die Chancen, wo die Risiken der KI und wie können Start-ups und KMU ihre künstlichen neuronalen Netze auf Österreichs Supercomputer trainieren? Martin Pfister von EuroCC Austria beantwortet all diese und viele weitere Fragen zu Machine Learning, Deep Learning und Artificial Intelligence – die er übrigens nicht als „intelligent“ bezeichnet.

Das Interview führte Bettina Benesch

Martin, im Team von EuroCC Austria unterstützt du Start-ups dabei, mit Künstlicher Intelligenz (KI) zu arbeiten. Wie funktioniert die Zusammenarbeit mit euch konkret?


Unternehmen, die sich mit Machine Learning, Deep Learning und künstlichen neuronalen Netzen beschäftigen möchten, wenden sich an das EuroCC-Industry-Team. In einem Erstgespräch werden Bedarf und Kenntnisse im Unternehmen erhoben und dann wird das Service individuell für die User:innen erarbeitet. In weiterer Folge kommen unterschiedliche Expert:innen unseres Teams dazu, und wir helfen, das Projekt am Vienna Scientific Cluster (VSC), dem österreichischen Supercomputer, umzusetzen. Das Unternehmen entwickelt das Projekt eigenständig und wir können unterstützen, wenn technische Empfehlungen gefragt sind oder Probleme auftreten.


Das heißt, die Unternehmen müssen schon Expertise in KI mitbringen?
 

Ja. Aber ein gewisses Know-how oder das Interesse, sich mit Deep Learning oder Machine Learning zu befassen, haben die meisten.
 

Jetzt hast du gleich zwei Begriffe genannt, die zurzeit allgegenwärtig sind: Machine Learning und Deep Learning. Worum handelt es sich dabei?

 

Wir erarbeiten das Service individuell für die Unternehmen und helfen, das Projekt an einem europäischen Supercomputer umzusetzen.

Deep Learning oder Machine Learning klingen zwar nicht so fancy wie Künstliche Intelligenz, aber ich finde diese Begriffe passender, weil damit eher vermittelt wird, dass das künstliche neuronale Netzwerk innerhalb eines vorgegebenen Rahmens gewisse Parameter selbst lernt. Im Grunde ist KI nicht mehr und nicht weniger als sehr ausführliche Statistik.


Was sind denn die Anwendungsgebiete dieser ausführlichen Statistik?


Wenn du die Aufzeichnung unseres Interviews nachher verschriftlichen lässt, wird das wahrscheinlich ein künstliches neuronales Netzwerk machen, das auf große Mengen an verschriftlichen Tonbeispielen trainiert worden ist. Das hat schon Interviews gehört, irgendwelche Reden oder Hörbücher, und sowohl die Audiodatei als auch den Text als Buchstaben gefüttert bekommen. Oder wenn du deinem Handy die Frage stellst, „Wie wird das Wetter morgen?“, oder ihm sagst: „Ruf Oma an“, dann wird das zumindest teilweise solche Algorithmen verwenden.
 

Kommt die Wettervorhersage also von der KI?


Naja, das Wetter wird auch heute noch meistens mit klassischem High-Performance Computing (HPC oder Supercomputing) vorhergesagt, wobei die KI schon Einzug hält. Aber es ist ein gutes Beispiel, an dem sich der Unterschied zwischen HPC und Künstlicher Intelligenz gut herausarbeiten lässt.

Wenn man Wettermodelle auf klassische Weise berechnet, arbeitet das System mit gewissen Regeln, die die physikalischen Gesetze abbilden sollen. Zum Beispiel: Wenn es im Norden regnet und der Wind nach Süden weht, wird es im Süden bald regnen. Dazu kommt noch eine Unmenge anderer Regeln, und der Computer errechnet aus dieser riesigen Datenmenge ein Ergebnis.

Er lernt also nicht selbst, sondern man sagt ihm: Das sind die Gesetzmäßigkeiten, so ist die Lage, berechne, was passieren wird.

Maschinelles Lernen nimmt einen anderen Ansatz: Es werden dem Modell nicht die physikalischen Zusammenhänge oder sonstige Regeln vorgeschrieben, sondern es bekommt zum Beispiel Informationen darüber, wie etwas in der Vergangenheit war. Das Modell versucht dann selbst, daraus Zusammenhänge abzuleiten.

Im Grunde ist KI nicht mehr und nicht weniger als sehr ausführliche Statistik.


Die großen Datensätze, die es dafür braucht, sind aus der Vergangenheit. Das heißt, die Vorhersage ist nicht prospektiv, sondern immer retrospektiv?


Das Trainieren ist retrospektiv. Aber sobald man es trainiert hat, kann man es prospektiv anwenden.
 

Nun haben wir den Klimawandel und das ist eine Veränderung, die es bisher nicht gab. Wie kann man hier Prognosen ableiten?


Das ist immer herausfordernd und die Zukunft mit hundertprozentiger Sicherheit vorauszusagen geht nicht. Es sind im Prinzip immer statistische Überlegungen, wodurch man wahrscheinliche und weniger wahrscheinliche Szenarien erhält.
 

Wenn die Künstliche Intelligenz also gar nicht intelligent ist, sind dann Bedenken unnötig, dass sie uns eines Tages übertrumpfen könnte?
 

Ich sehe die Gefahr nicht darin, dass die künstliche Intelligenz zu intelligent für uns wird, denn sie ist nicht intelligent. Meine Befürchtung ist eher, dass Menschen der KI Entscheidungen überlassen, die sie unmöglich treffen kann.

Vor ein paar Jahren hat ein selbstfahrendes Auto einen Fußgänger übersehen, der sein Rad nachts auf einer unbeleuchteten Freilandstraße über die Fahrbahn geschoben hat. Die KI war nicht darauf trainiert, in der Nacht auf unbeleuchtete, fahrradschiebende Fußgänger auf Freilandstraßen zu treffen. Ein Mensch hätte intuitiv sofort gewusst, was zu tun ist – das Computermodell war davon allerdings überfordert. Natürlich kann man sagen, Menschen machen auch Fehler, dennoch ist das ein Thema, das beachtet werden muss.
 

Was ist denn Intelligenz für dich und was ist der Unterschied zwischen künstlicher und menschlicher Intelligenz?
 

Ich würde sagen, zur Intelligenz gehört, sich komplett neue Dinge anzueignen. Künstliche Intelligenz kann sich in einem begrenzten Rahmen neue Dinge aneignen, aber immer nur mit Algorithmen, die von Menschen vorgegeben wurden. Die Vielseitigkeit von dem, wie Menschen sich neue Fähigkeiten aneignen können, das ist einfach eine andere Kategorie.


Die Künstliche Intelligenz kann allerdings auch etwas, das Menschen können – und das ist das sogenannte Halluzinieren. Kannst du kurz erzählen, was Halluzinationen bei KI sind?


Wenn die KI halluziniert, gibt sie falsche Informationen als richtig heraus, und zwar in sehr überzeugender Art und Weise. Das betrifft hauptsächlich große Sprachmodelle (Large Language Models, LLM), also textbasierte KI.

Ich sehe die Gefahr nicht darin, dass die künstliche Intelligenz zu intelligent für uns wird, denn sie ist nicht intelligent.

Sie werden im ersten Schritt darauf trainiert, Texte zu vervollständigen: Ein Satz ist in der Mitte abgebrochen, und das Modell sucht die wahrscheinlichste Fortsetzung. Ob das Ganze logisch Sinn macht oder nicht, lernt das Modell erst mit der Zeit. Und manchmal erfindet es etwas, weil es das als das Wahrscheinlichste angenommen hat.


Kann man solche Halluzinationen zum Beispiel als ChatGPT-User vermeiden?
 

Es gibt auf der Trainingsebene Strategien, an denen geforscht wird, aber als User kannst du kaum etwas dagegen machen. Ein Ansatz wäre, die Frage auf unterschiedliche Arten zu formulieren und zu schauen, ob jedes Mal das gleiche Ergebnis rauskommt. Es hilft auch, Folgefragen zu stellen, die versuchen, das Ergebnis zu überprüfen. Es ist sicher sinnvoll, nicht alles, was ChatGPT ausgibt, für bare Münze zu nehmen.


Wie, glaubst du, geht es mit der künstlichen Intelligenz weiter in den nächsten Jahren?


Ich glaube, dass man viel dazulernen wird, wozu künstliche neuronale Netzwerke gut geeignet sind und wo nicht. Und da werden manche Leute oder Firmen durchaus auch noch ihr Lehrgeld bezahlen.

Eine große Fluglinie zum Beispiel hat einen Chatbot für den Kundensupport engagiert, der einem Kunden die falsche Information gegeben hat. Der Kunde hat auf der erhaltenen Auskunft bestanden, geklagt und Recht bekommen.

Und dann wird es Bereiche geben, wo es funktionieren wird. Die Medizin ist eine Disziplin, bei der KI gut funktionieren kann, um die großen Mengen an Patientendaten auszuwerten. Ich glaube auch, dass auch außerhalb der klassisch-technischen Berufe noch riesiges Potenzial vorhanden ist, und auch Leute, die nicht ganz so computeraffin sind, neue Anwendungen für sich entdecken werden.

Die Medizin ist eine Disziplin, bei der KI gut funktionieren kann, um die großen Mengen an Patientendaten auszuwerten.


Das ist auch ein Ziel von EuroCC: Andere Sparten wie etwa die Sprach- und Sozialwissenschaften in Artificial Intelligence einzuführen.


Ja, genau. Ich glaube, Machine Learning ist ein Gebiet, in dem viele Leute mit sehr unterschiedlichen Hintergründen gute Beiträge liefern können. Es braucht vor allem einen offenen Erwartungshorizont. Nicht ein „So ist es und so will ich es immer machen“, sondern mehr ein „Juhu, da gibt es was Neues zum Ausprobieren!“.


Zur Person

Martin Pfister arbeitet seit Jänner 2024 im Team von EuroCC Austria. Er hat an der TU Wien Physik studiert, anschließend am Austrian Institute Of Technology (AIT) seine Diplomarbeit gemacht und ist für die Dissertation im Bereich der medizinischen Physik an die MedUni Wien gewechselt.


Die wichtigsten Begriffe kurz erklärt