WIEN. Binnen kürzester Zeit hat der ChatGPT-Hype fast alle Bereiche des Lebens erfasst und viele neue Unsicherheiten und Chancen mit sich gebracht. Wie vertrauenswürdig ist die Information, die ChatGPT ausspuckt und wo liegen Potenziale für Unternehmen, Medien oder auch für unser Bildungssystem? Der Gründer des Internationalen Forums für Wirtschafts-
kommunikation (IFWK), Rudolf J. Melzer, lud dieser Tage Expertinnen und Experten aus Wissenschaft, Medien, Schule, Juristerei und Wirtschaft zum Talk rund um künstliche
Intelligenz und Vertrauen ein.
„ChatGPT ist kein Recherchewerkzeug“, betonte Verena Krawarik, Leiterin der Stabsstelle Innovationsmanagement und des medialab der APA – Austria Presse Agentur, in ihrer Keynote: „Während Experimente beim Vereinfachen und Zusammenfassen von Texten gute Ergebnisse zeigen, ist ChatGPT - entgegen der noch weit verbreiteten Meinung - nicht imstande, Wissen zu generieren.
Wir haben ChatGPT anhand vieler Fallbeispiele getestet“. Krawarik warnte zudem vor einem enormen Fakenews-Potenzial, wenn Informationen ungeprüft weiterverwendet werden, „und gerade, wenn es um Copyright geht, stehen wir noch ganz am Anfang der Debatte.“ Um gewissenhaft und sinnvoll mit der Software umgehen zu können, brauche es neue Kompetenzen, aber auch Guidelines für den ethischen Umgang, so Krawarik; und hier sei neben den Unternehmen selbst vor allem auch das Bildungssystem gefordert, neue Technologien wie ChatGPT aktiv in den Unterricht einzubauen.
Fragt Matura noch die richtigen Kompetenzen ab?
Der Umgang mit Falschinformationen wird auch in den Schulen und Hochschulen mehr und mehr zum Thema. Bundesschulsprecherin Flora Schmudermayr sieht hier noch großes Verbesserungspotenzial mit neuen Technologien: „Gut ist, dass im neuen Fach ‚Digitale Grundausbildung‘ nicht mehr nur das Zehn-Finger-System gelehrt wird, sondern eben auch das Erkennen von Fake News und wie Quellen richtig verwendet werden. Es ist unumgänglich, ChatGPT im Unterricht einzubauen und vor allem, sich als Lehrkraft bewusst zu werden, wie ich Angaben schreiben muss, damit eine Aufgabe eben nicht mit ChatGPT gelöst werden kann. Es braucht also
Kompetenzen von Schülern UND Lehrern.“ Das Programm hat erst kürzlich die Zentralmatura bestanden. Schmudermayr: „Da stell ich schon die Frage, ob unsere Matura noch die richtigen
Kompetenzen abfragt.“
Bester Faktencheck sitzt zwischen den Ohren
„Im Idealfall unterrichtet man an Schulen und Hochschulen Methoden und nicht nur Auswendiglernen“, ergänzte Isabella Mader, Vorstand von Excellence Research, Informationswissenschaftlerin und
Lehrende für IT-Strategie an der FH Hagenberg. „Denn diese Methoden sind die Basis für Berufe von morgen, die es momentan noch gar nicht gibt. Wir dürfen nicht den Fehler machen, zu glauben, dass uns künstliche Intelligenz oder Technologie Jobs wegnimmt. Richtig eingesetzt, kann es Wissensarbeit massiv entlasten. Gerade bei Quellenangaben arbeitet das Programm noch nicht ausreichend gut: Der beste Faktencheck sitzt immer noch zwischen unseren Ohren.“
Künstliche Intelligenz wird den Menschen nicht entmachten
Grundsätzlich müsse man bei der Diskussion zwischen dem Produkt ChatGPT und der zugrundeliegenden Technologie, den Large Language Models, unterscheiden, erklärte Marcus
Hudec, CEO von Data Technology: „Die Large Language Models haben einen großen Wert für die Wissenschaft, sie haben aber kein Wissen. Wenn es gelingt, Systeme der Wissensverwaltung und -speicherung mit Large Language Models näher zusammenzubringen, dann erleben wir den nächsten
Quantensprung. Derzeit sind die Systeme wirklich dumm und führen eher zu Halbwissen.“ Die Technologie sei aber sehr relevant für die Wissenschaft und es sei klar, dass wir uns intensiv damit auseinandersetzen müssen, um die Technologie intelligent zu nutzen: „Künstliche Intelligenz wird
Menschen nicht entmachten, aber klug genutzt kann sie uns künftig entlasten.“
Ein Drittel der ChatGPT-Informationen ist falsch
Roland Fleischhacker, CEO von deepsearch, ergänzte: „Es ist wichtig, zu wissen, dass momentan ein Drittel der Informationen, die ChatGPT ausspuckt, falsch ist. Wenn man die Software aber mit konkretem Wissen füttert, zum Beispiel mit Informationen zu einem Unternehmen, kann es gute Texte
und präzise Antworten liefern. Und das ist schon ein Quantensprung für viele Unternehmensprozesse, nämlich das Wissen aus langen Texten mit konkreten Fragen und Antworten zusammenzuführen.“
Derzeit liege die Gefahr bei ChatGPT im unverarbeiteten Content, auf den ChatGPT zurückgreift, also zum Beispiel von Chatforen oder Plattformen, die nicht redaktionell bearbeitet werden. Die Moderatorin des Abends, Wirtschaftsjournalistin Michaela Ernst, stellte daraufhin die Frage, ob ChatGPT demnach ein gutes Instrument für Desinformation sei?
Isabella Mader: „Wir leben in einer Zeit, in der alle klagen, keine Zeit mehr zu haben und überarbeitet
zu sein. Wir werden uns helfen lassen müssen. Die Frage ist, wofür wir die Systeme einsetzen.
Sinnvoll ist es, wenn das System bei der Textierung hilft und so der Belegschaft Zeit spart. Entscheidend ist die Befähigung der Gesellschaft, mit der Technologie umzugehen. Verbote bringen
gar nichts und werfen uns nur um Jahrzehnte zurück. Und diese Zeit werden Cyberkriminelle nutzen.“
KI kann nicht Urheber sein
Ein wesentlicher Aspekt zum Thema ChatGPT ist außerdem die rechtliche Perspektive. „Laut Gesetz ist der Urheber eine natürliche Person. Dem folgend kann eine KI nicht Urheber sein“, erklärte Alexandra Ciarnau, Wirtschaftsanwältin und Co-Leiterin der Digital Industries Group bei DORDA. „Wenn die KI nur meine Befehle ausübt, dann gehören die Resultate mir. Das ist eine spannende Abgrenzungsfrage. Denn wie viel Anweisungen muss ich der KI geben, damit es mein Werk ist?“
Spannend werde es beim Thema Haftbarkeit. Ciarnau: „Künstliche Intelligenz ist noch lange keine juristische Person, sie ist ein Werkzeug. Wer ist also für Schäden verantwortlich, die durch KI entstehen? Zum Beispiel ist Diskriminierung, die durch einen Chatbot entstanden ist, schwer nachweisbar. Künftig wird man hier sehr viel in Security und die Umsetzung der neuen Anforderungen nach dem AI Act investieren müssen.“
Angeregte Diskussion
Weitere Aspekte der künstlichen Intelligenz wie die gesunde Balance zwischen Datenschutz und Innovation, ethische Bedenken oder Fragen der Resilienz diskutierten in der Folge die CFO der Austria Presseagentur und Geschäftsführerin von Gentics Software, Doris Pokorny, Phoenix Contact-Österreich-Geschäftsführer Thomas Lutzky, der Geschäftsführer des Horizont-Verlages, Markus Gstöttner, Marlene Halikias, Partnerin bei Grant Thornton, Hermann Obermair von der
Andritz AG, Anwältin Huberta Gheneff, die IFWK-Mitglieder Silvia d ́Orazio und Susanna Janovsky sowie der Generalsekretär der Handelskammer Schweiz, Österreich und Liechtenstein, Urs Weber, und die neu bestellte Geschäftsführerin des Wissenschaftlichen Senats des Public Relations Verbandes Austria, Gerlinde Layr-Gizycki.
RETAIL
Zwettler Bier baut Logistik aus
ZWETTL. Die Privatbrauerei Zwettl erweitert ihre Kapazitäten und setzt...
mehr erfahrenarrow_forward 30.10.2024