Doch hier stellt sich die Frage: Was bedeutet es eigentlich, eine Sprache wirklich zu verstehen? Wie denkt der Mensch, und woher wissen wir, dass es nicht genau das ist, was auch die KI tut? Ein philosophisches Thema, das schwer zu beantworten ist.
Sprachgenerierende KI erleichtert unseren Alltag: Von Textvorschlägen bis hin zu komplexen Antworten. Aber was steckt dahinter? Sina Keller, R&D Engineer bei G DATA, gibt spannende Einblicke in die Generierung von Texten: Ist es reine Rechenkunst oder verbirgt sich mehr dahinter?
Künstliche Intelligenz (KI) bezeichnet die Fähigkeit von Maschinen und Computersystemen, Aufgaben zu erledigen, die normalerweise menschliche Intelligenz erfordern. Dazu gehören das Lernen aus Daten, Problemlösung, Sprachverarbeitung und visuelle Wahrnehmung.
Die Technologie, die hinter Sprachmodellen wie ChatGPT steckt, basiert auf sogenannten Large Language Models (LLM). Diese Modelle sind für die Generierung von Texten verantwortlich und lernen, wie Sprache aufgebaut ist. Anders als Menschen hat KI keinen Verstand oder ein eigenes Bewusstsein. Stattdessen ist sie anhand riesiger Mengen von Texten darauf trainiert, Muster aus diesen zu lernen und auf dieser Basis selbst neue Texte zu erzeugen.
Die Basis für dieses Lernen ist das maschinelle Lernen. Um das zu verstehen, eignet sich das Beispiel einer Katze: Eine KI wird mit Bildern von Tieren gefüttert, die mit den Beschreibungen "Katze" oder "keine Katze" versehen sind. Durch diesen Prozess lernt die KI, Katzen von anderen Tieren zu unterscheiden. Sie erkennt Muster in den Bildern und entscheidet, welches Tier auf einem Bild zu sehen ist oder nicht. Das Gleiche gilt auch für Sprache: Die KI analysiert Sätze, lernt die Struktur und verwendet diese Informationen, um sinnvolle Antworten zu generieren.
Damit KI wie ChatGPT Sprache verstehen und generieren kann, muss sie mit riesigen Datenmengen trainiert werden. Dazu gehören Bücher, Webseiten, Artikel und andere Textformen. Die KI erkennt in diesen Informationen, wie Wörter und Sätze miteinander verknüpft sind. Doch anstatt die Sprache „wirklich zu verstehen“, berechnet sie, welches Wort wahrscheinlich als nächstes in einem Satz stehen sollte. Das ist der Grund, warum sie in der Lage ist, menschliche Sprache zu imitieren, aber nicht wie ein Mensch zu "denken".
Doch hier stellt sich die Frage: Was bedeutet es eigentlich, eine Sprache wirklich zu verstehen? Wie denkt der Mensch, und woher wissen wir, dass es nicht genau das ist, was auch die KI tut? Ein philosophisches Thema, das schwer zu beantworten ist.
Die Frage, ob KIs wie ChatGPT tatsächlich intelligent oder nur statistisch arbeitende Programme sind, bleibt offen und bewegt sich im Bereich der Philosophie. Laut Sina Keller haben diese Modelle kein Faktenwissen. Sie sind nicht in der Lage, wie Menschen zu denken oder logisch zu schlussfolgern. Was sie tun, ist, Muster zu erkennen und auf dieser Basis Antworten zu generieren.
Für viele beantwortet sich die Frage damit, denn nicht nur das Wissen, sondern das logische Schlussfolgern zählt für viele als Kriterium der Intelligenz. Andererseits sind diese Modelle auch keine einfache Datenbank, bei der eine einfache Anfrage gestellt wird und dann die wahrscheinlichste Antwort ausgegeben wird.
Als Cyber-Security-Unternehmen verwendet G DATA auch ein Tool, welches mithilfe von einem LLM den Analystinnen und Analysten zusätzliche Informationen zu Sicherheitsvorfällen liefert, ohne dass sie viel recherchieren müssen. Dadurch ersparen wir unseren Analysten eine Menge Zeit.
Eine KI kann also nur so gut sein, wie der Mensch sie auch trainiert. KI-Modelle wie ChatGPT beruhen auf komplexen mathematischen Prozessen, die es ihnen ermöglichen, menschliche Sprache zu imitieren. Obwohl sie beeindruckende Ergebnisse liefern und vielfältig einsetzbar sind, haben sie kein eigenes Verständnis der Welt. Ihre Antworten basieren auf großen Datenmengen und statistischen Berechnungen, was die Frage aufwirft: Ist es wirkliche Intelligenz oder nur fortgeschrittene Mathematik? Sina Keller stellt fest, hier handelt es sich um eine philosophische Frage, die jeder für sich selbst beantworten muss. Aber welche Folgen kann es haben, wenn Menschen nicht mehr selbstständig denken, sondern sich auf die KI verlassen? Das wird sich in naher Zukunft zeigen, in der Künstliche Intelligenz nicht mehr wegzudenken ist.