KI - Künstliche Intelligenz

AI - Artificial Intelligence

Machine Learning und Deep Learning

Ein weiter Weg von den ersten neuronalen Netzen zum großflächigen Einsatz von LLMs
Weiterentwicklung oder kollektive Verblödung - reicht einfache Intelligenz noch aus?
Maschinelles Lernen ermöglicht KI-Systemen ihre Leistung und Qualität weiter zu verbessern.

KI / AI - Möglichkeiten und Gefahren

Alle intelligenten Gedanken wurden bereits gedacht; es ist nur notwendig, sie noch einmal zu denken.
     - Johann Wolfgang von Goethe -

Ist die KI nur ein Google-Automat, der einfach nur Google-Anfragen zusammenfasst und dann aufbereitet präsentiert? Naja, so einfach ist es nun doch nicht.

Als wir vor rund 20 Jahren mit Python die ersten Experimente mit neuronalen Netzen machten, konnte man sich nur schwer vorstellen, dass KI (relativ) kurze Zeit später überall Einzug hält. Kaum ein Werbeslogan, der nicht bewirbt, dass das Produkt auf irgendeine Art über Intelligenz verfügt.

Neuronale Netze, die Basis von KI, wurden schon in den 40ern des vergangenen Jahrhunderts entwickelt - damals noch mit diskreter Hardware rein elektrisch. In den 80ern nahm die Entwicklung Fahrt auf und irgendwann um die Jahrtausendwende wurde die Programmiersprache Python an den Unis zur ersten Wahl für die Entwicklung von “künstlicher Intelligenz” - so nannte man es aber noch nicht - es ging nach wie vor um neuronale Netze. “Fuzzy Logic” war auch so ein Buzzword - das ging schon eindeutig in Richtung KI.

Heute können intelligente KI-Systeme sich kontinuierlich verbessern und mit Deep Learning-Verfahren selbst erkennen, dass sie auf dem falschen Weg sind und die Verfahren selbstständig anpassen. Ein “Large Language Model” (LLM oder großes Sprachmodell) wie ChatGPT findet seine Trainingsdaten z.B. im schier unerschöpflichen Textvolumen des Internets. 

Aber wo viel Licht ...

Soweit, so gut. Was aber passiert, wenn ein LLM wie beispielsweise ChatGPT eine Frage beantwortet, zu der es keine bekannten Daten gibt. Man hat festgestellt, dass LLMs in derartigen Situationen die Wissenslücken bestmöglich mit erfundenen Daten füllen. Das ist nicht ganz so schön, wie es sein könnte. Mann spricht von halluzinierender KI - die Ergebnisse sehen i.d.R. trotzdem sehr gut aus. Die Anzahl der durch KI erzeugten Texte im Internet, und damit auch jene die mit Fehlern behaftet sind, steigt stetig. Auch diese fehlerhaften Texte werden zur Quelle neuen Wissens - oder künstlicher Verdummung. Wenn das zum Training verwendete Material wiederum Fehler (echte und künstliche) enthält und es kein verlässliches Korrektiv gibt, werden die Trainingsdaten kontaminiert.

Neben halluzinierenden LLMs ist die Verunsicherung über die Zuverlässigkeit von Texten ein großes Problem. Wenn nicht sichergestellt ist, dass Fakten in umfangreichen Texten fehlerfrei dargestellt werden, nützt auch ein Zusammenfassung dieser Texte niemandem. Insbesondere in Social Media werden u.U. fehlerhafte Informationen schnell durch Verdichtung, Fehlinterpretation und massive Verbreitung zu falschen Wahrheiten. 

Mehr zu diesem interessanten Thema erfahren Sie bei uns!

 

Sie haben es sich sicher schon gedacht - der Text auf dieser Website wurde NICHT von einer KI generiert. Der Autor entschuldigt sich für etwaige Fehler (wenn welche da sind, sind es echte Fehler). ;-)
     - Wilhelm Riphaus -