Am Campus Chiemgau: Professor Dr. Alexander Pretschner beleuchtete Chat GPT
Professor Dr. Alexander Pretschner von der TU München beleuchtete am Campus Chiemgau der Hochschule Rosenheim bei einem Vortrag die Chancen und Risiken von Künstlicher Intelligenz.
Im Rahmen der Veranstaltungsreihe „Unternehmen und Hochschule“ hat Pretschner, Vorsitzender des Bayerischen Forschungsinstituts für Digitale Transformation, die Relevanz von Künstlicher Intelligenz (KI) in verschiedenen Bereichen dargestellt. Bei seinem Vortrag in Traunstein ging er vor allem auf den Chatbot Chat GPT ein. Zur Veranstaltung eingeladen hatten die regionale Wirtschaftsvereinigung Seeoner Kreis und die TH Rosenheim.
Pretschner erläuterte zunächst die technischen Hintergründe: ChatGPT ist der Prototyp eines dialogbasierten Chatbots, der mithilfe von KI menschliche Sprache versteht und menschenähnliche Texte erzeugen kann. Dafür wurde das Sprachmodell mit riesigen Mengen von Daten aus verschiedenen, öffentlich zugänglichen Quellen trainiert. Entwickelt wurde ChatGPT vom US-Unternehmen OpenAI, seit November 2022 ist die Technologie für die Öffentlichkeit zugänglich.
„Das Ding ist ein Multitalent: Es kann Gedichte schreiben, Fehler in Programmier-Codes finden und Witze erzählen. Oder Hausarbeiten und Bewerbungen verfassen. Ja, es macht aber auch Fehler“, sagte Pretschner, der an der TU München am Lehrstuhl für Software und Systems Engineering arbeitet.
Die KI-Ergebnisse müssten immer überprüft werden, da der Chatbot eben zuweilen falsch liege.
„Es ist nicht selten der Fall, dass Chat GPT stolz Antworten liefert, die aber nachweislich falsch sind – und das Programm kann auch keinen Hinweis liefern, dass es sich möglicherweise nicht ganz sicher ist“, so der Experte.
Der Mensch müsse die Ergebnisse reflektieren und Dinge einordnen.
Im Bildungsbereich lasse es sich künftig nicht verhindern, dass KI verwendet werde. Das jedoch sei nicht grundsätzlich abzulehnen. „Schüler und Studierende müssen auch weiterhin den Stoff beherrschen, um die Richtigkeit von maschinell erzeugten Texten beurteilen zu können. Das eigene Denken wird wichtig bleiben und sich darauf fokussieren, Ergebnisse einzusortieren. Einem Chatbot fehlt im Vergleich zu einem menschlichen Gehirn die Fähigkeit zum Hinterfragen und zu kritischen Gedanken“, verdeutlichte Pretschner.
Denkbar sei auch, den Spieß gewissermaßen umzudrehen und Prüfungsaufgaben von KI erstellen zu lassen.
In der Arbeitswelt könne die Künstliche Intelligenz in Zukunft viele standardisierte Arbeiten erledigen, zum Beispiel im Bereich der Dokumentation.
Pretschner: „Ob Medizin, Bankenwesen oder Versicherungen: Hier sind viele Schriftstücke zu verfassen, die einen hohen Zeitaufwand erfordern. Das kann eine Künstliche Intelligenz gut übernehmen. Allerdings muss geklärt werden, wer letztlich die Verantwortung für die Richtigkeit der Inhalte trägt. Das kann keine Maschine.“
Grundsätzlich sieht Pretschner eine Reihe weiterer Punkte, über die man sich Gedanken machen müsse:
„Wann sind Ergebnisse gut genug und wer legt den Maßstab dafür fest?
Wie stellt man sicher, dass Resultate nicht immer nur eine statistische Mehrheitsmeinung abbilden?
Und wer übernimmt in welchem Bereich die Technikfolgen-Abschätzung?
Das alles sind Fragen, die wir diskutieren und beantworten müssen.“
Foto: Hochschule Rosenheim / Doreen Franzke
Hinterlassen Sie einen Kommentar