ChatGPT für Nicht-Informatiker*innen
Вставка
- Опубліковано 17 тра 2024
- #ChatGPT für Nicht-Informatiker*innen: Schlüssel zum Verstehen der künstlichen Intelligenz und ihre Anwendungen in der #Hochschullehre.
Referent: Dr. Thomas Arnold, wissenschaftlicher Mitarbeiter des Arbeitsgebiets „Ubiquitäre Wissensverarbeitung“ am Fachbereich Informatik der Technischen Universität Darmstadt. In seinen Forschungen beschäftigt er sich mit den Möglichkeiten aktueller Sprachmodelle, sowie mit dem Einsatz neuer Sprach- und Textwerkzeuge in der Hochschullehre.
Vortrag in der Reihe #dghd_ki
Link zum Conceptboard zur Dokumentation: app.conceptboard.com/board/60...
Vortragsfolien: uni-paderborn.sciebo.de/s/3Nc...
00:00:00 - Begrüßung & Organisatorisches
00:03:11 - Start des Vortrags: Dr. Thomas Arnold
00:13:17 - Moderne Sprachmodelle: „Transformer“ GPT-3
00:17:55 - Transformer-Technologie
00:23:19 - Fine-Tuning des Modells
00:29:34 - Einsatzmöglichkeiten von ChatGPT
00:35:27 - Risiken und Fehler
00:38:57 - Weiterentwicklungen
00:47:48 - Anwendungen in der Lehre
00:55:42 - Herausforderungen in der Lehre
00:58:09 - Moderation
01:00:39 - Wann werden wir mit korrekten Antworten, Literaturangaben oder Zitaten einer KI rechnen können?
01:04:28 - Wem gehört das Ergebnis einer KI?
01:07:13 - Können Reaktionsgeleichungen und Syntheswege mit ChatGPT erstellt werden?
01:09:05 - Gibt es Details zu den Trainingsdaten von ChatGPT?
01:11:31 - Entfällt für Studierende bald die Anforderung für wissenschaftliches Arbeiten und eigeneständige Denken?
01:14:16 - Diskussion um didaktischen Einsatz
01:16:12 - Was geschieht bei mehrfachen gleichen Prompts?
01:17:29 - Kann man das System dazu bringen, „brilliante“ Antworten zu geben?
01:18:45 - Kann man das System mit eigenen Daten trainieren?
01:20:23 - Warum ist es so schwer, faktische Richtigkeit als Zielproxy hinzuzufügen?
01:21:27 - Gibt es Entwicklungen, um bspw. diskriminierenden Antworten gegenzusteuern?
01:24:29 - Moderation und Hinweis auf ConceptBoard für Dokumentation
01:25:32 - Abmoderation und Hinweis auf weitere Vorträge der Reihe #dghd_ki
Link zur Dokumentation auf Concept Board: dghd.link/dghd-ki-board - Наука та технологія
und noch so ein großartiges video! DANKESCHÖN
Sollte man bei den Prompts besondere Zeichen wie # oder Anführungszeichen verwenden, um bessere Ergebnisse zu erhalten? Oder ist das tatsächlich überflüssig?
Ich würde mich wahnsinnig über einen Hinweis oder Lesetipps freuen! Dankeschön!
Great 👍
Vielen Dank für die erfrischende Erklärungen (eher für angehende Informatiker). Schade, dass viele wichtige Aspekte (wie Safety, adverserial attacks, responsible AI, etc.) in der Diskussion versteckt waren - das gehört doch eher nach vorn! Auch sollte man die eher unsichtbaren Architekturprinzipien / Monetarisierungsstrategien / Marketing einer Privatfirma beleuchten ++ Microsoft-impact, Elon Musk Interesse aka Twitter-Übernahme, Edge-Monopolmissbrauch et al.
Danke für das Feedback! Über das Thema kann man wirklich sehr viele Blickwinkel beleuchten - zu ethischen Themen könnte für Sie auf jeden Fall der kommende Vortrag (22.02.2023) von Prof. Dr. Gabi Reinmann interessant sein: "Wozu sind wir hier? Eine wertebasierte Reflexion und Diskussion zu ChatGPT in Forschung und Lehre".
Korrekt, das Thema ist sehr vielschichtig und es folgen weitere Vorträge mit unterschiedlichen Schwerpunkten. Wir wollen dabei insbesondere unsere Haupt-Zielgruppe, also hochschuldidaktisch tätige Personen im Hochschulbereich bzw. Lehrende, im Blick behalten.
Warum kann ChatGPT keine deutschen Rechtsfälle lösen? Also juristische Fallbearbeitung. Ich verstehe das nicht. Kann mir das jemand erklären oder was man tun muss, damit ChatGPT das kann? Ich wäre wirklich dankbar für eine Antwort.
Wir wissen nicht, wie viele deutschen Rechtfälle in den Trainingsdaten von ChatGPT enthalten waren - um nützliche Aussagen zu treffen, müsste das eine beträchtliche Menge sein. Das System ist auch nicht auf faktische Korrektheit ausgelegt - möglicherweise sieht die Antwort korrekt aus, aber es wurden z.B. Gesetze und Normen "erfunden". Dies alles macht den Einsatz in so einem sensiblen Einsatzfeld schwierig. ChatGPT wurde übrigens bereits in Einzelfällen in den USA eingesetzt, um in juristischen Fragen zu unterstützen, allerdings natürlich nicht ohne eine manuelle Prüfung.
Zunächst bräuchte eine KI dafür Vollzugriff auf ALLE Rechtstexte. Diese sind teilweise noch gar nicht digital UND maschinenlesbar archiviert oder sind (zumeist) verlagsweise zugangsbeschränkt. Dann wir KI, wie Dr. Arnold vorstellt, trainiert, eine genehme nicht aber zwingend eine richtige Antwort zu generieren. Unlängst entschiedener Präzedenz-Fall: Hund wird bei Parkvorgang verletzt und beißt daraufhin den besorgt nachschauenden Fahrer. Die Auslegung des Rechts hatte zu entscheiden, ob die Tierhalterhaftung oder die Kfz-Haftung oder in Teilen beide für Schadensersatz greift. Wie sollte dafür eine zu programmierende Zielfunktion aussehen? Eine Analogiebildung kann funktionieren, wie z.B. Tabelle für Unterhalt oder typische Schmerzensgeld-Tatbestände (Armbruch, Schleudertrauma etc.). Ein semantischer Flaschenhals entsteht jedoch stets für auslegungsbedürftige (Rechts-)Begriffe, wie Treu und Glauben, die immer am EINZELFALL gemessen werden. Bei der Fortbildung des Rechts kann eine Abwägung nicht ausschließlich auf Analogiebildung gestützt werden. Hinzu kommen natürlich noch weitere Faktoren, wie Ermessen, Übergesetzlichkeit etc.
@@leopoldjahn2034 Lieber Leopold, danke für die Antwort. Leider überzeugt sie nicht. 1. Wo ist das Problem, sämtliche Gesetzestexte, Definitionen, Kommentare und Gerichtsentscheidungen zu digitalisieren? Sie sind es bereits, ja, bei den Verlagen. 2. Dein Fall: ist doch wirklich einfach: ein Thema der Kausalität u von Kausalketten u Verschulden. All das, was du darstellst, lässt sich doch via KI lösen. Zumindest könnte die fürchterlich lästige Schreibarbeit abgenommen werden.
@@thomasarnold6979 Vielen Dank. Ja, das sehe ich auch so. Ich habe nun Microsoft Bing Chat mit deutschen Rechtsschemata getestet und die Ergebnisse waren großartig. Ich bin davon überzeugt, dass diese Technologie die Arbeit von Jurist*Innen extrem erleichtern wird u sie von viel lästigem Zeug befreit.
@@thomasarnold6979 Ja, ChatGPT funktioniert überhaupt nicht mit deutschen Rechtsvorschriften. Microsoft Bing Chat funktioniert sehr gut.