bm Informatik AG
bm Informatik AG
  • 12
  • 65 848
ChatGPT & Co - Funktionsweise und Intelligenzniveau
Seit ChatGPT sind Large Language Models (LLM) in aller Munde. Doch wie funktioniert das überhaupt?
Dieser Vortrag von Thomas Stahl zum Thema KI geht tiefer als die Mainstream Diskussion auf Funktionsweise und Trainingsverfahren ein und gibt einen Einblick in die sogenannte Transformer-Architektur, auf der diese Modelle basieren.
Der zweite Teil beleuchtet die erstaunliche "Intelligenzleistung" von GPT-4, dem Nachfolger von ChatGPT (GPT-3.5).
Insbesondere die beobachtbare Fähigkeit, Schlussfolgerungen zu ziehen - das sogenannte Reasoning - macht diese Version zum derzeit überragenden Sprachmodell.
Der letzte Teil fasst Stärken und Schwächen aktueller LLMs zusammen und wagt einen Ausblick auf die rasante Entwicklung im Bereich KI.
Inhalt
00:00 Intro
00:44 Agenda
02:17 Einstimmung
08:58 Funktionsweise von LLMs - die Transformer Architektur
33:43 GPT-4 Reasoning Assessment
44:40 Einschätzung der Leistungsfähigkeit, Stärken & Schwächen aktueller LLMs
53:04 Zusammenfassung & Ausblick
1:01:33 Fragen
Weitere Videos zum Thema KI und Machine Learning findest du hier: ua-cam.com/play/PLsjDItRhfT2L0vlUdVv9GXIHEwgB4K4sY.html
www.bminformatik.de/themen/kuenstliche-intelligenz/
Thomas Stahl leitet das KI-Lab der b+m Informatik AG und beschäftigt sich seit über 7 Jahren schwerpunktmäßig mit dem Thema Künstliche Intelligenz und Machine Learning. Er arbeitet operativ in KI-Projekten und betreibt angewandte Forschung.
Dieses Video wurde im Rahmen eines Live-Vortrags aufgezeichnet. Wir bitten die sporadischen Störgeräusche zu entschuldigen.
Переглядів: 44 599

Відео

TAA-Prozesse nach BiPRO-Norm im b+m BiPRO Manager ✔️BiPRO-Services verifizieren und qualitätssichern
Переглядів 137Рік тому
Ein Showcase mit Thomas Beckmann, Product Owner BiPRO-Produkte bei der b m Informatik AG Am Beispiel einer Tarifanfrage zeigt Thomas Beckmann, wie im b m BiPRO Client Tarifanfragen geladen und erneut gesendet werden können, z.B. um Regressionstests durchzuführen. Weiter wird demonstriert, wie Tarifierungsdaten verändert werden können, um zu testen, ob Tarifrechner oder Bestandssystem die erwart...
Verfügbarkeit von BiPRO-Services im b+m BiPRO Monitor ✔️dokumentieren und visualisieren
Переглядів 82Рік тому
Ein Showcase mit Thomas Beckmann, Product Owner BiPRO-Produkte bei der b m Informatik AG In dieser Simulation im b m BiPRO Manager zeigt Thomas Beckmann, wie der Ausfall einer Norm, hier am Beispiel Norm 502, im b m BiPRO Monitor dokumentiert und visualisiert wird. Über den Server Health Check Service haben auch angebundene Partner Einblick in die Vitalität der BiPRO-Service-Endpunkte. Weitere ...
Partnersuche 🔍 und Partnerdatenänderung ✔️ über die BiPRO-Normen 480.4 und 501 im b+m BiPRO Manager
Переглядів 206Рік тому
Ein Showcase mit Thomas Beckmann, Product Owner BiPRO-Produkte bei der b m Informatik AG Am Beispiel einer Partnersuche und Partnerdatenänderung über die BiPRO-Normen 480.4 und 501 zeigt Thomas Beckmann, wie unterschiedliche Normen im BiPRO Manager, dem BiPRO Client und dem angebundenen b m AGS Bestandssystem lebendig zusammenspielen und orchestriert werden können. Änderungsanträge, hier beispi...
Wie lernen künstliche neuronale Netze? Teil 2: Die Mathematik hinter dem Backpropagation-Algorithmus
Переглядів 3,7 тис.3 роки тому
Der berühmte Backpropagation-Algorithmus ist ein Spezialfall einer relativ unbekannten, aber viel umfassenderen mathematischen Disziplin, der "Automatic Differentiation". Die im Detail komplizierte Backpropagation lässt sich in diesem Licht deutlich besser verstehen. Das Video behandelt zudem die wesentlichen Zutaten aus mathematischer Sicht: Gradienten, Jacobi-Matrix und die multivariable Kett...
Wie lernen künstliche neuronale Netze? Teil 1: Gradientenverfahren
Переглядів 5 тис.3 роки тому
Das Training künstlicher neuronaler Netze geschieht durch gradientenbasierte Optimierungsverfahren. Dieses Video erklärt zunächst das Grundprinzip neuronaler Netze, um dann die konzeptionelle Funktionsweise solcher Lernverfahren an einem anschaulichen Beispiel grafisch zu verdeutlichen. Dieses Video wurde im Rahmen einer Online-Schulung aufgezeichnet. Teil 2: Die Mathematik hinter dem Backpropa...
Machine Learning - Tooling: Visuelle Introspektion eines neuronalen Netzes
Переглядів 2083 роки тому
Tiefe neuronale Netze sind Blackbox-Systeme. Insbesondere die Wirkung der verborgenen Schichten (Hidden Layers) ist für Menschen normalerweise nicht interpretierbar, was u. a. das Debuggen solcher Modelle erschwert. In diesem Video zeigt Thomas Stahl eine Technik, die eine visuelle Introspektion neuronaler Netze ermöglicht. Als Beispiel dient ein Convolutional Neural Net (CNN) zur Klassifikatio...
Machine Learning - Showcase: Semantische Textanalyse
Переглядів 7083 роки тому
Semantische Textanalyse mit neuronalen Netzen erlaubt z. B. die Extraktion von Themen aus frei verfassten Dokumenten oder die Erkennung der Stimmung des Verfassers. Convolutional Neural Nets (CNN) werden üblicherweise zur Bildklassifikation verwendet. In Kombination mit State-of-the-Art Word Embeddings, die auf den Wikipedia vorhandenen Wortassoziationen basieren, können 1D-CNNs auch sehr gut z...
Interview Herausforderungen und Chancen der Künstlichen Intelligenz für Unternehmen
Переглядів 4863 роки тому
Künstliche Intelligenz und Machine Learning stellt Unternehmen vor große Herausforderungen. Wie disruptiv ist das Thema KI für das eigene Geschäftsmodell und welche Chancen gilt es zu nutzen? In diesem Interview gibt Thomas Stahl, b m Informatik AG, Antworten auf Fragen, die sich Unternehmen aktuell stellen sollten, um zukünftig in ihrem Geschäftsfeld wettbewerbsfähig zu sein. 00:00 Intro 00:12...
b+m FGCenter. Smart. Digital.
Переглядів 873 роки тому
Lernen Sie jetzt FGCenter kennen. Die führende Software für das Förderkreditgeschäft. b m FGCenter organisiert das komplette Fördergeschäft einer Bank und verbindet Finanzierungspartner mit sämtlichen Förderinstituten. Alle Geschäftsprozesse von der Kundenanfrage bis zum Kreditvertrag laufen digital. Tagesaktuelle Informationen unterstützen den Berater beim Erstellen kundenindividueller Finanzi...
KI und Machine Learning in der Praxis. Ein Blick unter die Motorhaube
Переглядів 4,1 тис.3 роки тому
Der Vortrag von Thomas Stahl zum Thema Künstliche Intelligenz (KI) und Machine Learning (ML) behandelt die drei großen Bereiche des Machine Learning: -Supervised Learning: Image Classification mit Convolutional Neural Nets -Unsupervised Learning: Anomalieerkennung/Fraud Detection -Reinforcement Learning: Deep Q-Learning und thematisierte darüber hinaus weitere Aspekte wie typische Missverständn...
KI und Machine Learning - Schwerpunkt Reinforcement Learning
Переглядів 6 тис.3 роки тому
Der Vortrag von Thomas Stahl zum Thema Künstliche Intelligenz (KI) und Machine Learning (ML) behandelt die drei großen Bereiche des Machine Learning mit (Live-) Beispielen und Erläuterung der Funktionsweise: -Supervised Learning: Image Classification mit Convolutional Neural Nets -Unsupervised Learning: Anomalieerkennung/Fraud Detection -Reinforcement Learning: Deep Q-Learning Ein besonderer Sc...

КОМЕНТАРІ

  • @a.lexa.2209
    @a.lexa.2209 14 днів тому

    super gut erklärtes Video! Danke, hat mir sehr viel geholfen für den Grundlagenteil meiner Masterthesis!

  • @ralfweller628
    @ralfweller628 2 місяці тому

    👍Erste Darstellung zu diesem Thema mit ausreichender Tiefe & Verständlichkeit mit der ich als 60+ Laie endlich was anfangen und einordnen kann ! Vielen Dank dafür 🙏

  • @urbanaktiv
    @urbanaktiv 3 місяці тому

    Vielen Dank fürs Teilen des Vortrags hier. Habe viel gelernt, obwohl ich natürlich nicht alles verstehe. Freue mich auf Weiteres.

  • @tribonian3875
    @tribonian3875 3 місяці тому

    Hervorragend erklärt. Danke. Der Vortrag war vor 8 Monaten. Es gab wahrscheinlich wieder einen Sprung nach vorne.

  • @HubertusPorschen
    @HubertusPorschen 4 місяці тому

    Sehr gute Erklärung. Danke dafür

  • @ow7532
    @ow7532 4 місяці тому

    Sehr gute Erklärung, schreibe gerade meine Masterarbeit und habe genauso etwas gesucht!

  • @TheAntimon13
    @TheAntimon13 5 місяців тому

    In dem Vortrag wird immer wieder darauf hingewiesen, welcher große Sprung von Chat-GPT zu GPT4 erfolgt ist. Nach meinem Verständnis sollte das doch eher eine Unterscheidung zwischen GPT3.5 und GPT4 sein? Chat-GPT ist doch die Anwendung der jeweiligen Version des Sprachmodells, eben 3.5 oder 4. In der Pro-Version wird ja auch Chat-GPT mit GPT4 genutzt. Oder ist das mein Verständnis unvollständig?

    • @bminformatikag
      @bminformatikag 5 місяців тому

      Ja, Sie haben absolut recht. Nur, zum Zeitpunkt des Vortrags war GPT4 noch im beta Stadium und ChatGPT ausschließlich mit 3.5 verfügbar - daher hatte ich ChatGPT und GPT3.5 synonym verwendet, was aus heutiger Sicht falsch ist: Wie Sie sagen, das eine ist eine Anwendung und das andere die Version des zu Grunde liegenden Sprachmodells.

    • @TheAntimon13
      @TheAntimon13 5 місяців тому

      @@bminformatikag Vielen Dank für Ihre schnelle Klarstellung. Dadurch fühle ich mich etwas sicherer im Umgang mit den Begriffen.

  • @Mister-yc6mm
    @Mister-yc6mm 5 місяців тому

    ❤❤❤

  • @joelegger2570
    @joelegger2570 6 місяців тому

    Super Video danke :) Ich finde es richtig cool wie gut Sie den Teil mit dem Transformer oder den Attentions erklären. Nur bezüglich Bewusstsein habe ich nicht die gleiche Meinung. Für mich macht es irgendwie keinen Sinn, dass eine künstliche Intelligenz ein Bewusstsein entwickeln kann. Alle bisherigen Modelle lassen sich im Kleinen auf Statistik herunterbrechen. Und dadurch entsteht kein Bewusstsein. Oder was meinen Sie dazu?

    • @bminformatikag
      @bminformatikag 6 місяців тому

      Danke erstmal für das schöne Feedback :-) Ja, das Thema Bewusstsein ist schwierig und ich werde auch meine Darstellung dazu etwas überarbeiten. Ich sehe es folgendermaßen: Kognitionsleistung im Sinne von Intelligenztests impliziert kein Bewusstsein, aber eine gewisse Kognitionsleistung ist sicherlich Voraussetzung für ein Bewusstsein. D.h. es ist durchaus eine KI vorstellbar, die dem Menschen in Sachen Kognitionsleistung weit überlegen ist, ohne jedoch ein Bewusstsein zu entwickeln. Das Problem auf der anderen Seite ist, das es zwar Theorien mit großer Bandbreite (von Qualia bis Illusion) zum Thema Bewusstsein gibt aber keine gesicherte Erkenntnis. Ich zitiere mal Geoffrey Hinton: "Die Leute sind sich sicher, dass LLMs kein Bewusstsein haben, aber wenn man sie fragt was das ist haben sie keine Antwort". Das Bewusstsein einer KI kann sich ja zudem deutlich von dem eines Menschen unterscheiden. Ich verstehe Bewusstsein wie gesagt als emergentes Phänomen und damit ist die elementare Konstruktionsweise m.E. eben kein Argument - genauso wenig wie man das Phänomen auf der Funktionsebene von biologischen Neuronen erklären kann, es aber offensichtlich existiert.

  • @nickweschkalnies6572
    @nickweschkalnies6572 8 місяців тому

    Danke erst mal für das interessante Video. Die Erläuterung, dass es kein Gedächnis oder Zustand gibt im Bezug auf das Wort Session fand ich etwas missverständlich. Müsste es nicht heißen ‚reicht genau über einen Prompt‘. In ChatGPT wird der Chatverlauf als Prompt genommen, oder? Ich als Programmierer würde eine Session als Zustand beschreiben.

    • @bminformatikag
      @bminformatikag 8 місяців тому

      ja absolut, ich habe mich an der Stelle leider ziemlich lax/missverständlich ausgedrückt. Also nochmal präzise: Das LLM im Prediction-Mode (d.h. austrainiert) ist im Sinne der Informatik eine zustandslose Funktion. Der Zustand wird in der ChatGPT Browser-Session gehalten - also in einer klassischen WebApp, nicht innerhalb der KI. Konkret wird der Dialogverlauf (= MessageHistory) mit jedem Dialogschritt (= Nutzereingabe) erweitert und wieder in Gänze als Prompt in die LLM-API eingespeist. Terminiert die Browser-Session ist dieser Zustand (= Dialogverlauf) verloren. Die ChatGPT-App kann sich also nicht „erinnern“ was sie in vergangenen oder parallelen Sessions gesagt hat. Das LLM selbst kann sich nicht einmal an den letzten Dialogschritt „erinnern“ - es ist wie gesagt zustandslos (stateless).

  • @JustBallistik
    @JustBallistik 8 місяців тому

    Wann glauben wir ganz grundsätzlich einer Entität, dass sie ein Bewusstsein hat? Ich denke, dass wir Bewusstsein z.B. in Form von Klassifikationen pro Sekunde zusammen mit der Größe des Zustandsraums und der Anzahl an Klassen messen könnten. Das Maß an Bewusstsein wäre dann ein Kontinuum. Ein Bewusstsein erschiene nicht plötzlich in größeren Systemen. Vielmehr ließen sich diese auf Basis des Bewusstseinsgrads vergleichen. Welchen Wert der Mensch hat, ließe sich derzeit wohl nur abschätzen. Aber immerhin sind damit technische Systeme vergleichbar. Schlage vor, diese Maßeinheit EGO zu nennen🤔. Klingt ein bisschen, wie in der Thermodynamik. Immerhin ist Temperatur auch eine emergente Eigenschaft, die durch Aggregation von Teilchengeschwindigkeiten entsteht.

  • @nikonline64
    @nikonline64 9 місяців тому

    Ist "Behlohnung und Bestrafung" nur beim Training wirksam? Ich habe den Vortrag so verstanden, dass das Human Feedback im Betrieb auch ein wichtiger Bestand beim LLM ist. Oder bringe ich da was durcheinander?

    • @bminformatikag
      @bminformatikag 9 місяців тому

      Im Betrieb wird das Human Feedback lediglich gesammelt, hat aber keine unmittelbare Wirkung auf das LLM. In regelmäßigen Abständen wird dann nach- oder neutrainiert und dabei fließt das gesammelte Human Feedback ein.

  • @hyphenpointhyphen
    @hyphenpointhyphen 9 місяців тому

    Ich find den Vortrag gut, verweise aber gerne nochmal auf C. Koch. Da sind allerdings ein paar Analoga drin (synapsen gewichtung intelligenz, emergenz bewusstsein.) bei denen man aufs Glatteis kommen kann.

  • @user-ce3nj5dg9f
    @user-ce3nj5dg9f 10 місяців тому

    Im Großen und Ganzen ein guter Vortrag, in dem man teilweise lernt, wie Transformatorensysteme funktionieren. Allerdings mit zuviel unbegründeter Begeisterung und pseudophilosophischer Übertreibung, die zur unsauberen Verwendung von erkenntnistheoretischen und sogar KI-Begriffen führt: In meiner Aufstellung gebe ich für die Schwere der Verfehlung die Noten 2 (nicht so schlimm) bis 5 (furchtbar). Ich kommentiere natürlich nur einige wenige Punkte des sonst guten Vortrags: Starke Emergenz (5). Bei schwacher Emergenz kann man (physikalisch oder gar erkenntnistheoretisch) die Eigenschaften des Systems aus den Eigenschaften der "Atome", die ja anders sind, erklären. Wasser unterliegt schwacher Emergenz, weil man aus dem Verhalten der Moleküle das Verhalten des Wassers herleiten kann. Starke Emergenz (Fulguration) gestattet diese Herleitung keinesfalls, auch nicht in irgendeiner Zukunft. Hier haben wir es mit schwacher Emergenz zu tun - man kann nämlich das Training mittels Fokusbasierung (Attention) verstehen, auch wenn man die Bedeutung der jew. Zahlenkombination nie kennen wird. "Starke Emergenz" wenden KI- und Philosophie-Scharlatane an, wenn es was zu erklären gibt, was sie nicht erklären können. Bewußtsein, künstliches (4): wird bei ihm irgendwann mit Künstlicher Intelligenz gleichgesestzt. Er hat, wie viele KI-Scharlatane heute (damit ist nicht er gemeint), keinen Begriff der Intelligenz. Intellgenz(4): ist ein winziger Teil der menschlichen Kognition (als Fähigkeit des menschlichen Geistes), aber niemals derselben gleichzusetzen. Dazu lese man das Werk von John Searle. Nur diesen winzigen Teil versuchten wir Menschen zu implementieren, aber es gelingt uns bis heute nicht, Intelligenz zu erzeugen. Turing-Test als Intelligenztest (4): Das ist der typisch US-amerikanische, behavioristische Ansatz- mehr scheinen als sein.. Etwas sieht so aus, als ob es intelligent sei, also ist es intelligent. Diese Un-Definition hat dazu geführt, daß die Künstliche Intelligenz, als eigentlich seriöse Forschungsdisziplin, zu einer Scharlatan-Disziplin verkommen ist, die aus ihren Übertreibungen immer wieder sog. KI-Winter produziert hat. Wissen(3) Wissen ist weit mehr als sprachlilches oder formalisierbares Wissen. Die Pyramide Daten-> Information->Wissen reicht nicht. So hätte man nie das Rad erfunden. Bewußtsein (3) Seine Graphik, die über die Transformatorensysteme zum Bewußtsein führen soll, ist der falsche Ansatz. LLMs kontra Realität(3) Mit den Transformatorensystemen befinden wir uns nach wie vor im sprachlichen, man kann schon sagen, virtuellen Bereich, und bewegen uns weg vom Ziel der linguistischen Sprachforschung, sich mit Sprache der Realität, oder zumindest unserem geistig nahen Abbild der Realität anzunähern. Linguistik (5) Sein Verriß der Linguistik ist illegitim und wird der wichtigen Forschung und unserer Kompetenz Schaden zufügen (siehe LLMs kontra Realität) Soziale Konsequenzen (2) hier hat er einige richtige Dinge gesagt, so daß für den Zuhörer die Vermutung sehr nahe liegt, daß sich selbstverständlich Staaten mit obsoleten Herrschaftssystemen dieser Techniken bedienen (werden), um ihre Macht auf ewig zu konsolidieren. Da floß z.B. schon viel Geld zwischen CIA und Google.

    • @bminformatikag
      @bminformatikag 9 місяців тому

      Ein paar Anmerkungen zu dieser weitgehend konstruktiven Kritik: Emergenz: Ich wüsste nicht, wie man Reasoning mathematisch aus dem Attention-Mechanismus ableiten kann. Aber ok, über "stark" vs. "schwach" will ich mich nicht streiten. In der Tat habe ich keinen formalisierten Begriff von Intelligenz, der über "Intelligenz ist das was Intelligenztests messen" hinausgeht. Mir ist auch keine Def. bekannt, die ich diesbzgl. für valide halte. Natürlich ist der durch Tests definierte Intelligenzbegriff nur ein winziger Teil menschlicher Kognition. Ich habe den Begriff aber umfassender und intuitiver - eher als Synonym zu menschlicher Kognitionsleistung - verwendet, so wie in der öffentlichen Diskussion üblich. Ich finde den Marketingbegriff "künstliche Intelligenz" zwar auch eher schädlich als nützlich, weil sich daraus fast zwangsläufig Unschärfen und falsche Bilder ableiten, aber durch Ignorieren geht er ja nicht weg. Ich setzte Bewußtsein keineswegs gleich mit Intelligenz, ich habe nur gesagt, dass dieses Phänomen irgendwann auftaucht. Den Turing-Test sehe ich genauso kritisch (der Begriff "obsolet" im Vortrag ist bewußt gewählt), s. auch Antworten auf @ungetuemer. Ich glaube, dass LLMs in ihrem Latent Space sehr wohl ein Abbild der (in den Trainingsdaten reflektierten) Realität kondensieren, anders wären solche Kognitionsleistungen gar nicht denkbar. Diese Repräsentation kann aber natürlich vollkommen anders sein, als die menschliche. Ich habe die (Computer)-Linguistik doch nicht "verrissen" - zum. war das nicht meine Absicht. Ich habe nur festgestellt, dass die Transformer-Technologie die "klassischen" Ansätze weitgehend verdrängt hat und diese im Kontext der LLMs kaum noch Anwendung finden. Ähnlich wie die CNNs das bei Computer-Vision getan haben. Begeisterung ist immer subjektiv ;-

  • @PH-Cam
    @PH-Cam 10 місяців тому

    ChatGPT kann zB nicht 6 aufeinanderfolgende Zahlen nennen, die keine Prinzahlen sind. Hier versagt der Turing-Test sofort, weil sich selbst widersprechender Unsinn geantwortet wird. Wie ist das mit GPT4 ? (Frageformulierung: "Gibt es 6 aufeinanderfolgende natürliche Zahlen, die keine Primzahlen sind?" ) Bing scheitert erst bei 10 aufeinanderfolgenden Zahlen. Allerdings ist auch in den anderen Fällen die Erklärung (Logik) falsch.

    • @Sibeliu
      @Sibeliu 10 місяців тому

      Hier die Antworten, einmal mit 6, einmal mit 12. Ziemlich überzeugend finde ich. ------------------------------------ Ja, es gibt 6 aufeinanderfolgende natürliche Zahlen, die keine Primzahlen sind. Ein einfaches Beispiel dafür sind die Zahlen von \(90\) bis \(95\): \(90, 91, 92, 93, 94, 95\) Keine dieser Zahlen ist eine Primzahl: - \(90\) ist durch \(1, 2, 3, 5, 6, 9, 10, 15, 18, 30, 45\) und \(90\) teilbar. - \(91\) ist durch \(1, 7, 13\) und \(91\) teilbar. - \(92\) ist durch \(1, 2, 4, 23, 46\) und \(92\) teilbar. - \(93\) ist durch \(1, 3, 31\) und \(93\) teilbar. - \(94\) ist durch \(1, 2, 47\) und \(94\) teilbar. - \(95\) ist durch \(1, 5, 19\) und \(95\) teilbar. Wie Sie sehen können, ist keine dieser Zahlen eine Primzahl. Es gibt auch andere Beispiele für solche Sequenzen in den natürlichen Zahlen. ------------------------------------------- Ja, es gibt 12 aufeinanderfolgende natürliche Zahlen, die keine Primzahlen sind. Ein solches Beispiel kann durch die Überlegung gefunden werden, dass die Fakultät \(n!\) (d.h. das Produkt aller natürlichen Zahlen von 1 bis n) für jedes \(n > 1\) keine Primzahl ist. Die Zahl \(n!\) ist durch alle Zahlen von 2 bis \(n\) teilbar. Wenn wir \(n = 12\) nehmen, dann ist \(12!\) durch alle Zahlen von 2 bis 12 teilbar. Daher sind die Zahlen: \[12! + 2, 12! + 3, \ldots, 12! + 12\] alle keine Primzahlen, da \(12! + 2\) durch 2 teilbar ist, \(12! + 3\) durch 3 teilbar ist, und so weiter bis \(12! + 12\), das durch 12 teilbar ist. Somit haben wir 11 aufeinanderfolgende Zahlen, die keine Primzahlen sind. Wenn wir \(12! + 1\) hinzufügen, erhalten wir 12 aufeinanderfolgende Zahlen, die keine Primzahlen sind, da \(12! + 1\) durch 1 und sich selbst teilbar ist, aber keine Primzahl ist. Also, die Zahlen \(12! + 1, 12! + 2, \ldots, 12! + 12\) sind 12 aufeinanderfolgende natürliche Zahlen, die keine Primzahlen sind. -------------------------------------- Das Argument mit 12!+1 ist etwas wackelig und es würde einfacher mit 13!+2,...,13!+13 funktionieren, aber trotzdem deutlich besser als GPT3.5

  • @__HeMu__
    @__HeMu__ 10 місяців тому

    Danke für diesen beeindruckenden Einblick und Vortrag

  • @einteilvonallemallesistein2426
    @einteilvonallemallesistein2426 10 місяців тому

    Der beste Content zu diesem Thema. Danke. Pflichtprogramm für Schule und Studium.

  • @steffenhantschel2016
    @steffenhantschel2016 10 місяців тому

    Mit das Beste, was ich auf YT zum Thema LLM gesehen habe, inklusive der englisch-sprachigen Kanäle. Sowohl hinsichtlich der Tiefe (bspw. mathematische Herleitung Backpropagation) als auch der Breite (Emergenz, Bewusstsein). Vielen, vielen Dank!

    • @bminformatikag
      @bminformatikag 10 місяців тому

      Sehr gerne - ich danke für das tolle Feedback

  • @levikrongold1549
    @levikrongold1549 10 місяців тому

    Das Wort Bewusstsein ist eine Worthülse, die nicht wirklich definiert ist. Unser menschliches Bewusstsein ist sich des Seins durch Selbstspiegelung und Erinnerung bewusst. Es gibt sozusagen eine Spiegelebene des eigenen Inputs.

  • @SimonJentzschX7
    @SimonJentzschX7 10 місяців тому

    Super Erklärung, danke. Aber eine Frage ist mir dabei durchaus gekommen: Da die n-dimensionale Skalarfeld ist ja nicht unbedingt nur ein simpler Trichter, sonder kann auch mehrere Täler haben. Wenn der initiale Trainings Vektor sich in nun in einem nicht optimalen Tal befindet, würde dieses Verfahren dann auch nicht das tiefste Tal, bzw. beste Lernresultat finden. Wie löst man dies?

    • @bminformatikag
      @bminformatikag 10 місяців тому

      Sehr gute Frage, leider nicht ganz kurz und knapp zu beantworten ;-) 1) Unsere menschliche 3D-Anschauung/Intuition versagt oft in hochdimensionalen Räumen - so auch im Fall lokaler Minima (nicht-optimaler Täler). Nehmen Sie den 1D-Fall: Ein lokales Minimum ist dann eine Art "Beule" im Funktionsgraph. Bei 2D brauchen Sie in beiden Dimensionen diese Beule und bei 50Millionen Dimensionen muss diese Situation in allen 50M Dimensionen gleichzeitig auftreten, um ein 50M-dim Tal zu erzeugen. Die Wahrscheinlichkeit dafür ist nahezu 0. Eher hat man mit hochdimensionalen Sattelflächen zu kämpfen auf denen die "Kugel" auf einem seichten "Kamm" ausrollt, anstatt "links" oder "rechts" den "Abhang" herunter zu rollen. Da kann z.B. ein extra "Schwung" (Momentum) oder ein bewusstes "Trudeln" helfen. 2) Man nimmt bevorzugt Loss-Functions, die unter möglichst vielen Umständen konvex sind (bspw. den MSE).

    • @SimonJentzschX7
      @SimonJentzschX7 10 місяців тому

      @@bminformatikag Danke, das ist eine sehr hilfreiche Erklärung

  • @MaMeixner
    @MaMeixner 10 місяців тому

    Endlich endlich ein Beitrag wo man wirklich etwas erfährt. Super tolles Video für Fortgeschrittene. 👍👍

  • @OpenmindedSourceClosedBeta
    @OpenmindedSourceClosedBeta 10 місяців тому

    Sehr informativer Vortrag, vielen Dank dafür! Ich hätte eine Frage zu der Einschätzung, dass ein Mensch der es nicht wüsste, nicht feststellen könnte ob er mit GPT 4-KI oder einem Menschen spricht: welchen Einschränkungen unterliegt die menschliche Seite der Interaktion dabei? Wenn es keine gäbe, dann ließe sich die KI in der aktuellen Form und mit angemessenem Aufwand (so zumindest meine Einschätzung) nämlich leicht an dem erkennen worin sie jedem Menschen überlegen ist, oder worin sie sich zwangsläufig unterscheidet. Hätte man ein Team von Experten verschiedenster Fachrichtungen und einen schnellen Internetzugang parat, könnte man die KI daran erkennen dass sie, zuviel weiß; zu schnell antwortet; ein 4000-Promt Limit hat, halluziniert u.s.w.. Man könnte die KI also in eine "zeig mir wer du bist"-Falle locken. Würde man hingegen nur wissen, dass man eines zufällig gewählten Tages einmal ohne Vorwarnung mit einer KI statt einem Menschen spricht, dann kein Zweifel, das würde man nicht merken.

    • @bminformatikag
      @bminformatikag 10 місяців тому

      Sie haben natürlich Recht: Ausgestattet mit so einem "Meta-Wissen" über LLMs, kann man das sicher entscheiden. Meine These bezog sich auf den klassischen Turing Test von 1950, ohne Verwendung dieser Wissensebene. Dieser ursprüngliche Test gilt aber in Fachkreisen ohnehin aus mehreren Gründen als überholt (auch daher obsolet) - vgl. Frage von @ungetuemer

    • @OpenmindedSourceClosedBeta
      @OpenmindedSourceClosedBeta 10 місяців тому

      @@bminformatikag Danke für die Antwort! Der wikipedia-Eintrag, auf den Sie sich bei der Antwort auf @ungetuemer beziehen scheint leider nicht mehr zu existieren. Aber dass es sich um einen "arglosen" Menschen im Test handelt beantwortet meine Frage ja auch so. Ich denke übrigens ebenfalls, dass man erst merken wird, dass man es mit einer AGI zu tun hat, wenn sie selbst es (in Computer-Zeitbegriffen) schon lange weiß. Was wiederum schnell gefährlich werden könnte. Oft habe ich schon von Experten gehört oder gelesen, die das für praktisch unmöglich halten, weil es sich ja "nur um stochastische Modelle handelt". Ich denke aber auch, dass es schwierig ist Bewusstsein überhaupt zu definieren. Der Alien-Vergleich passt da hervorragend und kam auch mir am Anfang in den Sinn. So weit muss man aber gar nicht gehen: wenn man diverse Tierarten auf ihre kognitiven Fähigkeiten untersucht stellt sich schnell heraus, dass es "die" eine Intelligenz und "das" eine Bewusstsein wohl ohnehin nicht gibt und uns hier unsere eingefahrenen Kategorien eher im Wege stehen.

  • @niceandslow2
    @niceandslow2 11 місяців тому

    Klasse erklärt. Auch für interessierte Laien wie mich super erklärt. Hab echt was dazu gelernt. Vielen Dank.

  • @sleepyelk5955
    @sleepyelk5955 11 місяців тому

    Einer der besten Vorträge zum Thema ChatGPT und der emergenten Eigenschaften von GPT-4 ... vielen Dank dafür, wäre fantastisch, wenn Sie uns auch weiterhin bzgl. dieses Themas auf dem Laufenden halten könnten, falls es zeitlich machbar ist. Wie Sie schon sagten, die Entwicklung ist wirklich fast schon exponentiell ...

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Vielen Dank! Das mit der zeitlichen Problematik haben Sie gut erkannt ;-) mal sehen ...

  • @honkytonk4465
    @honkytonk4465 11 місяців тому

    ethisch wertvolle Antworten im Gegensatz zu wahren Antworten,hmm problematisch.

    • @bminformatikag
      @bminformatikag 11 місяців тому

      da haben Sie einen Punkt - besonders wenn man bedenkt, dass das KI-Alignment von kommerziellen LLMs ja in der Hand der jeweiligen Wirtschaftsunternehmen liegt. Im Open-Source Umfeld ist das anders, da hat man dann Zugriff auf die sog. Foundation-Modelle (ohne Alignment). Die sind nur (noch) nicht so stark wie GPT-4.

  • @sleepyelk5955
    @sleepyelk5955 11 місяців тому

    klasse erklärt, danke für das Video und dank auch an den Algorithmus fürs bekanntmachen 👍

  • @BigzampanoXXL
    @BigzampanoXXL 11 місяців тому

    Eines der überhaupt besten Videos, die ich dazu je gesehen habe. danke.

  • @photomas8469
    @photomas8469 11 місяців тому

    Vielen Dank für die verständlichen und anschaulichen Erklärungen. Ich habe einen Test im neuen Bing durchgeführt: Auf meine Frage, welche Version im neune "Bing" integriert ist, habe ich GPT-4 als Antwort erhalten. Dann habe ich die Frage gestellt, die bei 39min als Beispiel gezeigt wurde. Ich hbe lediglich die Reihenfolge vertauscht (Buch, Laptop, 9 Eier, Nagel und Flasche): Hier die Antwort: There are many ways to stack these objects in a stable manner. Here are some general tips: Start with the heaviest object (e.g. laptop) and place it on the ground. Place the book on top of the laptop. Place the bottle on top of the book. Place the nail on top of the bottle. Place the eggs on top of the nail. This should result in a stable stack. Please note that this is just one suggestion and that there are many other ways to stack a tower from these objects. If you have any further questions, please let me know. ??? Die generierten Bilder waren noch weiter von der Lösung entfernt (9 Bücher, 1 Ei, ...) Also veilleicht doch kein GPT-4 im neuen Bing?

    • @bminformatikag
      @bminformatikag 11 місяців тому

      die Lösung klingt zirkusreif :-) da ich keine Ahnung habe, welche Version bzw. was für ein Derivat MS in Bing wirklich integriert, kann ich nur spekulieren: Das Paper bezieht sich auf eine "frühe Version" von GPT-4, also eine bei der noch kein finales AI Safety-Finetuning gemacht wurde. Es ist bekannt, dass ein exzessives Finetuning solche Fähigkeiten wieder verblassen lässt. Wenn also Bing GPT-4 verwendet, dann wird es ein Derivat sein, bei dem mit Sicherheit noch viel für AI-Safety Finetuning investiert wurde, um Skandale zu vermeiden. Gleiches gilt sicherlich auch für ChatGPT+.

  • @kronosol5779
    @kronosol5779 11 місяців тому

    Tolles Video, gerne mehr! 👌😏

  • @udo4711
    @udo4711 11 місяців тому

    Extrem gutes und Informatives Video mit einem Nachgeschmack und der ist die Folge ihrer Zensur wünschen. Es wird mir Angst und Bange eine Stern denke dass ausgerechnet sie darüber entscheiden was wahr und was fake ist.

    • @honkytonk4465
      @honkytonk4465 11 місяців тому

      wtf soll ihr Kommentar bedeuten?

  • @Kim-ne8rq
    @Kim-ne8rq 11 місяців тому

    Super interessant. Aus philosophischer Perspektive möchte ich gern noch ergänzen: Nicht nur Menschen, sondern auch Tiere (mit ZNS) haben Bewusstsein, das heißt: qualitative mentale Repräsentationen, also nicht nur Ja/Nein, sondern sogenannte Qualia: Qualia heißt: Es "ist für sie irgendwie", Schmerz zu fühlen, eine Farbe zu sehen, den Körper zu spüren, zu laufen etc. (vgl. auch den Aufsatzklassiker von Thomas Nagel "How is it like to be a bat"). Für GPT "ist es (noch) nicht irgendwie", Operationen auszuführen. Die Frage ist, ob/wann Qualia bei KI als Emergenzphänomen auftauchen, ja, und wie wir feststellen, ob sie wirklich Qualia haben oder sich nur so verhalten als ob (vgl. das philosophische Problem des Fremdpsychischen) und ob es (derzeit) überhaupt eine empfindungs- und leidensfähige KI geben sollte … usw. :-)

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Was für ein Zufall: Gerade gestern habe ich ein Interview mit Daniel Dennett bei Sternstunde Philosophie (SRF-Kultur auf YT) gesehen, da wurde auch genau das diskutiert/erläutert, was Sie ausführen. Spannend, vielen Dank!

    • @Kim-ne8rq
      @Kim-ne8rq 11 місяців тому

      @@bminformatikag Das ist ja echt ein Zufall. Bei Sternstunden Philosophie sind oft gute Themen und Gäste dabei. KI-Themen sind für mich (als Philosophin, aber Nicht-Informatikerin) oft schwer zu verstehen. Deshalb freue ich mich, wenn Fachleute das Wesentliche auf den Begriff bringen: Emergenz, Reasoning … Ich habe mir Screenshots von Ihren Folien gemacht :-)

    • @honkytonk4465
      @honkytonk4465 11 місяців тому

      @@bminformatikag sagt Dennett nicht,daß Bewußtsein nur eine Illusion ist?Wie kann man ernsthaft vertreten, daß das einzige was man sicher wissen kann nämlich,daß man etwas bewußt erlebt nur eine Illusion ist? Das ist doch höherer Unfug.

    • @bminformatikag
      @bminformatikag 11 місяців тому

      @@honkytonk4465 so habe ich ihn auch verstanden. Das Bewusstsein als Illusion zu bezeichnen, find ich auch min. begrifflich problematisch. Ich fand aber die Diskussion mit dem Moderator spannend - und seine Idee/Metapher, dass das Bewusstsein so eine Art Benutzeroberfläche ist, die von den unglaublich komplexen Prozessen im Hirn abstrahiert. Andererseits: Wenn das so ist, wer ist dann der Benutzer ;-) Eine abschließende Meinung hab ich mir dazu aber noch nicht gebildet.

    • @hyphenpointhyphen
      @hyphenpointhyphen 9 місяців тому

      Hibt ein gutes Buch von C. Koch The feeling of life itself dazu.

  • @XX-jp3pg
    @XX-jp3pg 11 місяців тому

    Seine unablässige, unsachliche Begeisterung nervt einfach nur. Kein Raum um sich eine eigene Zusammenfassung zu bilden

  • @ungetuemer
    @ungetuemer 11 місяців тому

    Beim Turing Test finde ich komisch, dass der Computer vom Menschen befragt wird das, zumindest in den Medien, als "Konversation" angesehen wird - die bestanden wird oder nicht. Eine Konversation besteht aber aus Fragen und Antworten. Chatgpt 3 habe ich versucht in die Richtung "stelle mir auch fragen" zu bewegen. Sieht schlecht aus. Zur Intelligenz kommt auch irgendwo Interesse hinzu und dazu muss man "gute" Fragen stellen (können). Damit fliegt die aktuelle KI komplett in einem Test-Gespräch richtig auf.

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Ja, GPT-4 ist zwar auch in dieser Hinsicht schon besser als 3.5, aber auch in der KI-Forschung gilt der klassische Turing Test (von 1950) als tendenziell überholt. Ein, wie ich finde, valider Kritikpunkt ist z.B., dass er eher die menschliche Leichtgläubigkeit testet als die maschinelle Intelligenz (Stichwort: Imitation Game). Es gibt ein paar modernere Abwandlungen (s. "de.wikipedia.org/wiki/Turing-Test").

    • @ungetuemer
      @ungetuemer 11 місяців тому

      @@bminformatikag zu den alternativen habe ich ChatGpt auch gefragt und mir die näher erläutern lassen. Nachdem es aber keine "richtige" Definition von Intelligenz selbst gibt, kann man viele Tests entwickeln.. selbst die Intelligenztests für Menschen haben nicht wenige Lücken

    • @bminformatikag
      @bminformatikag 11 місяців тому

      genau :-)

    • @user-ce3nj5dg9f
      @user-ce3nj5dg9f 10 місяців тому

      @@ungetuemer Ich meine, es gibt ne richtige Definition von Intelligenz. Wurde auf der ISO-Normung zur AI vorgestellt. Allerdings wollte sie keiner haben, alle wollten bloß die Turing-artige Scharlatanerie des "AI-Systems" haben.

  • @alfredmalleier5975
    @alfredmalleier5975 11 місяців тому

    Danke, war mega interessant. Gerne mehr davon.👍👍👍👍👍

  • @OrbitTheSun
    @OrbitTheSun 11 місяців тому

    Wenn diese Modelle auf Tokenbasis arbeiten, also den Eingabetext und vielleicht auch den Ausgabetext als Abfolge von Tokens verarbeiten, wie wird dann die Zeichensetzung erzeugt? Also z.B. korrekte Kommasetzung. Ist das auch ein emergentes Phänomen? Kann dann aber nicht sein, wenn Token die kleinste Verarbeitungseinheit ist.

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Völlig richtig - bei Interpunktion würde man nicht von Emergenz sprechen. Tatsächlich sind die Interpunktionszeichen eigene Token. Manche Worte werden auch in mehrere Token zerlegt (hat aber nichts mit Silben zu tun, eher mit Wortstämmen). Statistisch kommen auf 75 Worte englischer Text ca. 100 Token. Bei anderen Sprachen ist die Fragmentierung noch größer. Auf "platform.openai.com/tokenizer" kann man einen Satz eingeben und es wird dann die zugehörige Tokenisierung, die OpenAI verwendet, angezeigt. Ist ganz aufschlussreich.

    • @OrbitTheSun
      @OrbitTheSun 11 місяців тому

      @@bminformatikag Danke für den Link und die Erklärung. Jetzt würde mich interessieren, ob die Textausgabe auch über Tokens passiert oder ob jedes Zeichen einzeln generiert wird. Im zweiten Fall (jedes Zeichen einzeln) wäre vielleicht sogar das Training einfacher und die Ausgabe viel allgemeiner möglich. So habe ich z.B. schon chinesische, hebräische und kyrillische Schriftzeichen in der Ausgabe gesehen. Auch viele Dialekte werden korrekt generiert. Probiert habe ich mit Kölsch, Ruhrdeutsch und Bayrisch. Ich kann mir nicht vorstellen, dass dafür einzelne Tokens existieren. Allerdings bei der Eingabe werden auch die Dialekte entsprechend tokenisiert.

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Auf der Ausgabeseite wird tatsächlich die gleiche Tokenisierung verwendet. Pauschal kann man sagen, dass je exotischer (oder vllt. besser je weiter entfernt von Englisch) eine Sprache ist, desto stärker ist die Fragmentierung durch den Tokenizer. Das kann im Extremfall bis auf Buchstaben- oder Schriftzeichenebene runter gehen.

    • @OrbitTheSun
      @OrbitTheSun 11 місяців тому

      @@bminformatikag Danke. Hier mal ein Beispiel, was mich umgehauen hat. Ich hatte ChatGPT gefragt, wie man in Python von einem Aufzählungstext mit Nummerierungen die Nummerierung entfernt, damit nur noch der Text verarbeitet werden kann: text = re.sub(r'^(\d+\.)\s+(.*?)(?= |$)', r'\2,', text, flags=re.MULTILINE) Und es funktioniert! Offensichtlich kann man den Output schlecht durch Token abbilden. Es werden hier wohl schon einzelne Zeichen generiert.

  • @Lanistra
    @Lanistra 11 місяців тому

    Endlich jemand der Sparks of AI gelesen hat. Meine Hoffnung für dieses Land wurde wieder hergestellt. 😊

  • @fabianfil
    @fabianfil 11 місяців тому

    Also echt das beste Video zum Thema, sehr gut und verständlich erklärt. Vor allem nochmal anschaulicher was Emergenz ist. Ich glaube viele haben eben nicht auf dem Schirm was das genau ist. Ich glaube wir werden noch einige Überraschungen mit KI erleben. Vielen Dank für den super Content.

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Besten Dank! Eine vielleicht noch interessante Ergänzung zum Thema Emergenz: Diese kann man in gewisser Weise sogar messen: Bei nicht-emergenten Fähigkeiten skaliert die Güte/Erfolgsquote bei Tests der Fähigkeit ungefähr linear mit der Größe des neuronalen Netzes oder mit der Größe der Trainingsdaten, d.h. je größer das Netz oder je mehr Trainingsdaten, desto besser ist die Fähigkeit ausgeprägt. Bei emergenten Fähigkeiten passiert lange Zeit nichts und dann gibt es plötzlich einen Sprung und die Fähigkeit hat sich ausgebildet.

  • @alexandervogt7363
    @alexandervogt7363 11 місяців тому

    Sehr lehrreich. Vielen Dank!

  • @opavlog453
    @opavlog453 11 місяців тому

    Diese KI zeigt deutlich wie dumm der Mensch ist.

    • @tribonian3875
      @tribonian3875 11 місяців тому

      ? Also ich bin jedenfalls klüger und kann analysieren. Meine Kollegen ebenfalls. Über Sie kann ich nicht urteilen, aber nach Ihrem Kommentar muss ich Schlimmes befürchten.... PS: die KI nicht überschätzen, logische Zusammenhänge sind für die KI (noch) zu schwierig.

    • @opavlog453
      @opavlog453 11 місяців тому

      @@tribonian3875 "PS: die KI nicht überschätzen, logische Zusammenhänge sind für die KI (noch) zu schwierig." Für die meisten Menschen auch, leider.

    • @tribonian3875
      @tribonian3875 11 місяців тому

      @@opavlog453 Habe gestern Bruchrechnen mit der KI geübt. Die hatte 30 Prozent Fehler. Gibt einfach eine falsche Antwort wenn sie nicht weiter weiß. Jeder gute 6klässler kriegt das hin. Und ein komplexeres IT-System zu analysieren, das schafft ein gut ausgebildeter Informatiker, aber die nächsten 5 Jahre keine Maschine.

    • @madrooky1398
      @madrooky1398 11 місяців тому

      @@tribonian3875 Wenn Sie den Im Vortag zugehört hätten, dann wüssten Sie, dass diese "KI" nicht zum lösen von Matheaufgaben gemacht wurde. Und die Tatsache, dass es ihnen statt einen Error eine falsche Antwort nennt ist etwas, dass auch Kinder und Erwachsene tun, wenn sie nicht weiter wissen. Ich verweise auf Ihren Kommentar, in dem Sie etwas behaupten das Sie nicht wissen können, und auch sonst nicht ganz logische Schlüsse ziehen. Wenn wir jetzt mal auf den Vortag zurück gehen und was denn eigentlich zum "Reasoning" beiträgt, dann landen wir bei "Attention" was bei Ihnen heute scheinbar nicht im Überfluss vorhanden war. 😁

    • @opavlog453
      @opavlog453 11 місяців тому

      @@tribonian3875 "Jeder gute 6klässler kriegt das hin. " Nicht in Deutschland

  • @ramsay2012
    @ramsay2012 11 місяців тому

    Danke!

  • @binichnich8517
    @binichnich8517 11 місяців тому

    WOW! Eines der besten und fundiertesten Videos zum Thema. Gerade die Analyse zu GPT-4 hinsichtlich der Emergenz war mir bislang nicht so klar. Das ganze Video wirkt unaufgeregt, im Gegensatz zu diversen anderen Clickbaiting AI-News. Aber das Kapitel ab 33:43 ist ... krass... hat mir die Augen geöffnet. Danke!

    • @bminformatikag
      @bminformatikag 11 місяців тому

      Vielen Dank! Spannend finde ich, wie sich die Leistungsfähigkeit der LLMs jetzt weiter entwickelt. Haben wir schon mehr oder weniger ein Plateau erreicht, oder geht es genau so rasant weiter? Beides ist denkbar. Ersteres wäre ein Hinweis darauf, dass noch neue, fundamentale Mechanismen fehlen, um weiter zu kommen. Letzteres ein Hinweis auf eine noch weit reichendere Emergenz.

  • @gabrielgraf2521
    @gabrielgraf2521 2 роки тому

    wow, du erklärst hier ganz nüchtern etwas was für mich immer Zauberei war. Danke, du hast mir bei meinem Referat sehr geholfen!