Was ist ChatGPT und wie funktioniert es? - Und welche ähnlichen Tools gibt es?

Поділитися
Вставка
  • Опубліковано 7 чер 2024
  • Was ist #ChatGPT und wie funktioniert es? - Und welche ähnlichen Tools gibt es?
    Referentin:
    Prof. Dr. Doris Weßels, Professorin für Wirtschaftsinformatik an der FH Kiel, und Mitbegründerin des Kompetenzzentrums „Schreiben lehren und lernen mit Künstlicher Intelligenz - Tools und Techniken für Bildung und Wissenschaft“.
    Vortrag in der Reihe #dghd_ki
    Vortragsfolien: www.dghd.de/wp-content/upload...
    00:00:00 - Begrüßung
    00:02:47 - Start Vortrag Prof. Dr. Doris Weßels
    00:05:03 - Überblick über den Vortrag
    00:05:21 - KI schreibt Bücher
    00:09:57 - Wer steckt hinter ChatGPT? Geschichte von OpenAI
    00:16:33 - Wie funktioniert GPT-3?
    00:19:17 - Öffentlicher Zugang zu GPT-3
    00:20:35 - Die GPT-3-Modell-Familie und wie man sie nutzen kann
    00:26:53 - ChatGPT als „Zeitenwende“ im Bildungsbereich?
    00:29:19 - Klausurfragen mit ChatGPT
    00:33:58 - Modulbeschreibungen mit ChatGPT
    00:35:52 - Umfangreiche Texte verfassen mit ChatGPT
    00:37:42 - Texte von ChatGPT bewerten lassen
    00:39:51 - Geschäftsmodelle generieren mit ChatGPT
    00:42:08 - Mathematikaufgaben mit ChatGPT
    00:42:55 - Versionen und Weiterentwicklung von ChatGTP
    00:47:32 - Die Kunst des Prompts
    00:49:02 - Weitere KI-basierte Tools
    00:51:22 - Konkurrierende Sprachmodelle international
    00:52:54 - Exkurs Plagiats-Frage
    00:56:48 - Diskussion
    00:57:08 - Wird es in Zukunft Open Source KI geben?
    00:58:14 - Wie sehen Prüfungen aus, wenn KI eingesetzt werden kann/darf?
    01:00:50 - Klausuren mit KI?
    01:03:31 - Verweis auf weitere Veranstaltungen der #dghd_ki Reihe
    01:04:34 - Nachfrage zu Bewertung von Hausarbeiten
    01:05:21 - ChatGPT halluziniert: Vorsicht bei wissenschaftlichen Quellenangaben
    01:07:29 - Wie sehen die Prüfungen der Zukunft aus?
    01:12:02 - Nutzung von KI in der Lehre mit einer ISO oder DIN normieren?
    01:15:17 - Muss KI als Lerngegenstand in die Lehre?
    01:17:48 - Wie sollten Hochschulleitungen handeln?
    01:20:40 - Hinweis auf Hochschulforum Digitalisierung
    01:21:26 - Weitere Termine der Reihe #dghd_ki
    Link zur Dokumentation auf Concept Board: dghd.link/dghd-ki-board
  • Наука та технологія

КОМЕНТАРІ • 39

  • @Giastice
    @Giastice Рік тому +6

    Danke für den Beitrag. Wieso ist Prof. Weßels nicht unsere Digitalisierungsministerin frage ich mich gerade!!!!

    • @botten4187
      @botten4187 Рік тому

      Weil Minister in erster Linie Manager sind, und keine Experten. So ein Ministerium ist ja keine One-Man Show. Die haben dann Experten, die dort arbeiten und die Minister beraten, Gesetze ausarbeiten usw.
      Minister haben da die Aufgabe das alles zu koordinieren und die Entscheidungen des Parlaments auf ihren Verwaltungsapparat zu übertragen

  • @DavidLohner
    @DavidLohner Рік тому +1

    Sehr ausführlich! Vor allem der Teil zum technischen Hintergrund von #ChatGPT ist sehr sehenswert (ab 00:16:33): im Grunde ist ChatGPT reine Statistik. Trotzdem kann es meines Erachtens nach ein wertvolles Werkzeug sein (ist Statistik ja auch in vielen Bereichen).

    • @backfischritter
      @backfischritter Рік тому

      Es ist Statistik, aber eben nicht reine Statistik.

  • @josefinahd3245
    @josefinahd3245 6 місяців тому

    Nach dem was ich verstanden habe basiert die GPT auf Datensammlung. Womit sie gefüttert wurde, spuckt diese als Antwort aus. Um "Qualität" als Antworten zu erhalten, müsste man diese mit öffentlich anerkannten Lehrbüchern füttern um öffentlich anerkannte Antworten zu erhalten. Dies ist mit E-books leicht gemacht, ansonsten mit viel Arbeit verbunden. Und das wird sich dann KI nennen wobei derjenige abkassiert der sich nicht die Arbeit mit der Fütterung gemacht hat.

  • @gehwissen3975
    @gehwissen3975 Рік тому +1

    Vielleicht hab ich das mit dem Würfeln nicht richtig verstanden.
    Beispiel: "Noten dürfen nicht gewürfelt sein"
    Ich denke, das "Würfeln" hat damit zu tun, dass es zu einem gegebenen Sachverhalt, eine Menge möglicher Sätze gibt.
    Hier entsteht mir der Eindruck "KI würfelt"
    Das kann nicht gemeint sein....?

    • @DavidLohner
      @DavidLohner Рік тому +1

      Die KI "würfelt" insofern, dass sie nicht ganze Sätze formuliert. Sie gibt ein Wort aus, das nach bestimmten Parametern statistisch plausibel ist. Diese Aussagen sind aber nicht immer korrekt. Wenn in den Trainingsdaten bestimmte Wortkombinationen häufig vorkommen, gelten diese als statistisch relevant/plausibel. Am Beispiel von Texten über deutsche Politik wird das deutlich: Wenn die meisten Texte von einer BundeskanzlerIN sprechen (was ja den meisten der letzten 20 Jahren korrekt war), wird die KI das Wort "Bundeskanzlerin" als plausibler als "Bundeskanzler" einstufen. So entstehen "zufällige" Wortaneinanderreihungen, die aber sinnvoll erscheinen, weil in den meisten Texten (Trainingsdaten) eben diese Kombinationen vorkommen. Dennoch ist eine Wortkombination (in diesem Beispiel zur Zeit) falsch, wenn sie sich auf die aktuelle Regierung beziehen würde. Die Trainingsdaten haben also einen massiven Einfluss auf die Ausgabe des Sprachmodells (chatGPT).
      Es gibt aber noch zahlreiche weitere Parameter, die diese Large Language Models viel komplexer machen, als dieses eine Beispiel zu zeigen vermag.

    • @patrickg8013
      @patrickg8013 Рік тому

      Die generierten Wortkombinationen sind kein reines Zufallsprodukt, das ist klar. Nichtsdestotrotz basiert ein entscheidender Teil des Algorithmus auf "Zufall" bzw., genauer, einem Zufallsgenerator. Wenn ich das richtig verstanden habe: Der Algorithmus bildet mittels eines Zufallsgenerators eine Wortkombination, nur greift er dabei auf eine statistisch eingegrenzte Vorauswahl zurück, welche anhand der "Trainingsdaten" immer genauer festgelegt wird.
      "Training" bedeutet insbesondere auch: Die Eingangsdaten werden von Menschen angelegt und kategorisiert, die Ausgangsdaten bzw. Ergebnisse und Ziele des Algorithmus werden von Menschen definiert, überprüft und ausgewertet, bis man dann irgendwann über genügend ausgereifte Trainingsdaten verfügt und wiederholt Daten ausgegeben werden, die auf andere Menschen plausibel wirken oder eben sinnvoll erscheinen.
      Die damit in Zusammenhang stehende menschliche Arbeit sowie Arbeitsbedingungen von "Clickworkern" aus z.B. Kenia werden dabei auch oft übersehen. All diese Zusammenhänge verlieren sich hinter dem Science-Fiction-lastigen Framing, welches solche Algorithmen als scheinbar eigenständige "Neuronale Netze" bezeichnet und Vergleiche mit den synaptischen Verbindungen im menschlichen Gehirn ins Spiel bringt. Rhetorik. Hinter dem Schall und Rauch von ChatGPT und Co. verbergen sich allerdings, nüchtern betrachtet, vor allem Streamlining-Tools für Big Data. Deswegen sind wohl auch Wirtschaft und Werbeindustrie stark an der Erforschung dieser Thematik interessiert.

    • @amirreza1052
      @amirreza1052 7 місяців тому

      Das Schaubild ist falsch, GPT 3 basiert auf einen Decoder-only Architektur und nicht auf einen Encoder

  • @db7752
    @db7752 Рік тому

    Die Klausur wurde mit einer 4 bewertet. In der Schweiz(ca.5% der Deutschsprachler) ist 6 die beste Note. Könnte ChatGPT bei der Bewertung eine Mischrechnung gemacht haben?

  • @josefinahd3245
    @josefinahd3245 6 місяців тому

    Den Beitrag finde ich sehr informativ, die Technik aber unbefriedigend. Viel Lob und Erwartung für etwas derzeit mangelhaftes. Unter Betracht der Sugestion des Zwecks und der jetzigen wie auch zukünftigen Daten, befürchte ich dass die Benutzer wie bei den meinungsbildenden Medien nur damit gefüttert werden was diesen durch diese Technik erlaubt wird zu erfahren. Dass die Naturwissenschaften dabei derzeit im System fehlen wundert mich nicht und anbetracht dessen gegenwärtigen Wertes an den Universitäten darf man auch gerne darauf verzichten wenn sich die gegenwärtige Situation diesbezüglich nicht ändern sollte.

  • @tomtom2806
    @tomtom2806 Рік тому

    Ich habe ChatGTP gebeten, einen Artikel über die Düsseldorfer Malerschule zu schreiben. Das Resultat war eine Katastrophe. Neben recht allgemeinen Aussagen stellte ChatGTP die falsche Behauptung auf, dass Max Lieberman (sic!), Lovis Corinth und Emil Nolde Absolventen der Düsseldorfer Malerschule waren.

    • @backfischritter
      @backfischritter Рік тому

      ChatGPT kann nicht auf das Internet zugreifen um Informationen über die Malerschule zu bekommen. In solchen Situationen haluziniert es dann gerne.

  • @21stcenturyscots
    @21stcenturyscots Рік тому +1

    Doris Weßels
    Warum sollte eine KI keine Bücher schreiben?
    Wenn man die teilweise sehr schlechten Veröffentlichung Ihrer akademischen Kollegen betrachtet, ist das doch mehr als wünschenswert.

    • @dghd_info
      @dghd_info  Рік тому +1

      Doris Weßels führt aus, dass Bücher, die von KI geschrieben werden vielfältige Diskussionen lostreten (werden), da insbesondere (Urheber-)rechtliche Fragen neu ausdiskutiert werden: ua-cam.com/video/cMuBo_rH15c/v-deo.html
      Was die Kritik an wissenschaftlichen Publikationen der „Kollegen“ betrifft: hier wäre für eine konstruktive Diskussion ein konkretes Beispiel hilfreich. In der Regel ist der Prozess für die Veröffentlichung von Fachartikeln oder Büchern in der Wissenschaft so organisiert, dass es eine (wie auch immer geartete, in einigen Fällen sicher auch diskutable) Qualitätskontrolle gibt.

  • @claus7555
    @claus7555 Рік тому

    Müllwerker ist demnächst einer der sichersten Jobs kann man annehmen...

  • @gehwissen3975
    @gehwissen3975 Рік тому +1

    Wenn die Lehre daran denkt das Lernen unter diesen neuen Bedingungen zu reformieren... ..dann kann man vermuten, dass das zu langsam und konservativ wird.

    • @boohoo5419
      @boohoo5419 Рік тому +1

      zumal dieser ganze beitrag ja einfach nur zeigt wie weltfremd solche institutionen sind. als hätte mir meine oma versucht machine learning zu erklären aber es selbst nur grob verstanden. den gezeigten kram kriegt selbst ne fachfremde ZDF reporterin zusammengetragen!

    • @gehwissen3975
      @gehwissen3975 Рік тому

      @@boohoo5419 Die Sendung ist sowas von Deuttsch🤣🤣🤣🤣
      Allein die Diskussionen darüber, ob das Ding jetzt wirklich intelligent ist....
      Die Diskussionen in den USA zum Thema sind auf einem anderen Niveau.
      AI ist wirtschaftlich und sozial und politisch eine H-Bombe
      Der Krieg Google /\ Microsoft zeigt das doch deutlich.
      EGAL wer gewinnt - die Menschen verlieren.
      OpenAI verkauft ChatGPT jetzt auch in BRD für $20.
      Und das ist erst der Anfang. GPT4 wartet schon....

  • @Claudia-yd3dd
    @Claudia-yd3dd Рік тому

    Ich wünsche mir, dass Chat-GPD Rechtsanwendung kann, also juristische Fälle lösen kann. Wer macht mit? An wen kann ich mich wenden?

    • @alexanderdrechsel6858
      @alexanderdrechsel6858 Рік тому

      Kann ich gut verstehen. Aber wird es nicht geben, da die deutsche Rechtssprechung das verbietet. Nur ein Mensch darf Urteile fällen. Also müsstest du erstmal die Rechtsgrundlage ändern. Lawgeex hat ja schon vor 5 Jahren die Rechtsanwälte alt aussehen lassen, weil es NDAs deutlich akurater und vor allem sehr viel schneller als der beste Mensch prüfen konnte.

    • @Claudia-yd3dd
      @Claudia-yd3dd Рік тому

      @@alexanderdrechsel6858 Zuerst: vielen Dank für die Antwort. Ich meinte jetzt nicht Urteile fällen, also die Aufgabe eines Gerichts wahrnehmen. Sondern auf einer viel früheren Stufe anfangen, beispielsweise die Subsumtion einfachster Paragraphen, also was mit Worten in einem Paragraph gemeint ist, also zuerst die Definition der Tatbestandsmerkmale einer Rechtsnorm. Dann einen Lebenssachverhalt schildern und die KI prüft, was da rechtlich vorliegt. Ich bin wirklich dankbar für weitere Hinweise u Erklärungen. Die Standards im deutschen Recht sind immer gleich. Und sie laufen nach Schema F täglich zig mal in Juristen-Hirnen ab.

    • @Claudia-yd3dd
      @Claudia-yd3dd Рік тому

      @@alexanderdrechsel6858 1. Es geht nicht um Urteile, sondern um die Lösung von juristischen Sachverhalten. 2. Wo bitte schön steht im Gesetz, dass nur Menschen urteilen können? Also Richter*Innen Menschen sein müssen. Bitte Rechtsnorm für diese Aussage nennen.

    • @alexanderdrechsel6858
      @alexanderdrechsel6858 Рік тому

      @@Claudia-yd3dd zu 2) kurze Google Suche ergibt: Gemäß Art. 92 Hs. 1 GG ist die rechtsprechende Gewalt „den Richtern“ anvertraut. Die Norm beinhaltet ein personales und ein institutionelles Element. Daraus folgt zum einen, dass die Rechtsprechung von natürlichen Personen ausgeübt werden muss (personales Element) und sie als öffentliche Aufgabe in ihrer Hand liegen muss (institutionelles Element). und 1) ich denke es wird nur eine Frage der Zeit sein, bis KI hier als Werkzeug eingesetzt wird.

    • @Claudia-yd3dd
      @Claudia-yd3dd Рік тому +1

      @@alexanderdrechsel6858 Lieber Alexander, danke für deine Antwort und dein Bemühen obzwar sie unter 2) falsch ist. Weder die Rechtsprechung, wie du zuerst ausführtest, noch irgendeine Rechtsnorm schreibt vor, dass Rechtsprechung von natürlichen Personen ausgeübt werden muss. Ich finde diesen Punkt im Stadium, in dem wir uns aktuell befinden nicht wichtig, vielmehr bin ich wirklich an Rechtsanwendung interessiert, die von KI erledigt wird und dafür suche ich Leute, die das umsetzen wollen; also Experten sowohl im Bereich der KI als auch Jurist*innen. Es muss doch irgendjemand geben, der daran arbeitet.

  • @friedrichjunzt
    @friedrichjunzt Рік тому

    Ich warte nur darauf, bis die ersten Schüler kapiert haben, dass sie nur ein paar Stichworte aneinanderreihen müssen, damit sie bei den "KI"-Algorithmen Höchstnoten kassieren! Klappt ja bei Bewerbungen auch: Die Parser schauen nur, dass die Stichworte der Stellenausschreibung vorkommen, also kommt der Bewerber durch, der einfach die Stellenausschreibung reinkopiert...

    • @DavidLohner
      @DavidLohner Рік тому +7

      Ich warte nur darauf, bis die ersten Lehrer:innen kapiert haben, dass sie nur ein paar aneinandergereihte Stichworte abfragen, wenn sie beim alten Konzept "Prüfung" bleiben. ;-)
      Im Ernst: Die Diskussionen rund um ChatGPT und Konsorten führen uns vor Augen, dass wir insbesondere im Bildungsbereich ernsthaft darüber nachdenken, *was* und *wie* wir lernen/prüfen (wollen). Es gibt keine einfache oder schnelle Antwort darauf - gleichzeitig können wir nicht wirklich warten und ewig und drei Tage diskutieren. Informationsveranstaltungen wie die hier aufgezeichnete sind der erste Schritt. Aufklärungsarbeit ist wichtig, wenn wir alle Beteiligten (Lernende UND Lehrende) mitnehmen wollen.

    • @boohoo5419
      @boohoo5419 Рік тому

      @@DavidLohner da die KIs auch groben unfug erzählen muss man zumindest so viel ahnung vom gebiet haben das man das ergebnis noch verfizieren kann. selbst mit ki würde somit der lerneffekt nicht ausbleiben. wenn ich selbst nicht weiß was multiplizieren bedeutet dann kann ich auch schlecht ne KI danach fragen.