klar, für die forschung und die community, die drin steckt und sich damit beschäftigt, ist der inhalt hier trivial. aber wir müssen viel mehr dinge wie die hier tun, und der breiten masse die entwicklung erklären. sonst gibt es noch mehr spreizung zwischen einer wissenden schicht und ahnungslosen beherrschten. daher: prima veranstaltung mit wichtigem auftrag
ich sehe das problem vielmehr in der wissenden schicht. dort gibt es mit an sicherheit grenzender wahrscheinlichkeit individuen, die zu früh erklären/behaupten werden, das wir bei der AI durchgestiegen sind - darin steckt die größte gefahr künstlicher intelligenz. dem pöbel wird meiner meinung nach völlig zu unrecht, aber natürlich gemäß dem vorherrschenden narrativ, dummheit und ahnungslosigkeit unterstellt.
I am a belgian and for me as a scientist, I lost a lot of time studying languages for private and professional reasons. Of coarse we need language specialists, but I lost precious time and had problems to deeply understanding many topics having to learn 4 languages. Soooooo happy with chatGPT!
1:41:25 Im Rückblick war Latein für mich eines der wenigen Fächer, die sich "gelohnt" haben! Zum einen der problemlose Umgang mit Fremdwörtern. Zum anderen aber auch der indirekte Gebrauch. So sind die meisten komplexeren Wörter in der englischen Sprache lateinischen Ursprungs. Wenn ich mal einen englischen Begriff suchte, führte oft die Wortbildung auf Basis des lateinischen Begriffs zum Ziel. Kleiner Tipp für die Ersteller von Wörterbuch-Übersetzungstools: Es ist nicht sinnvoll, für englische Begriffe wie "redundant" ein deutsches Fremdwort (redundant) vorzuschlagen. Davon hat niemand was gelernt! 😊
@@kirschkäferIch habe in der Schule sowohl Latein als auch Französisch und Englisch gelernt. Da der Großteil meines Französisch Unterrichts während des Lockdowns stattgefunden hat, habe ich daraus allerdings nur sehr wenig mitgenommen. Ich habe französisch nie sprechen und verstehen gelernt sondern ich kann es nur ein wenig lesen und schreiben. Insgesamt habe ich aber aus Französisch fast nichts mitgenommen was sich im Alltag bisher als nützlich erwiesen hat, aus Latein jedoch sehr viel! Durch Latein konnte mein 12 Jähriges Ich die Deutsche Grammatik viel besser verstehen und das ist nur ein Beispiel
Ich denke nicht, dass man aus jeder romanischen Sprache die gleichen Rückschlüsse ziehen könnte wie aus Latein. Dadurch, dass man Latein übersetzen muss und dadurch jedes Mal ein Rätsel lösen muss, entwickelt man ein ganz anderes Verständnis für die Wörter und ihre Bedeutungen im jeweiligen Kontext als bei Englisch allein. Außerdem trainiert man auch andere Fähigkeiten wie komplexes und kreatives Denken durch das Übersetzen lateinischer Texte. Man lernt in der Schule auch etwas über das Leben der Menschen im alten Rom, über die römischen Götter(geschichten) und über Philosophie.
@@ami2446 Sorry das du französisch im Lockdown hattest. Ich hatte Latein und Spanisch ohne Lockdown, und bin jetzt scho etwas älter und kann dir sagen du vergisst alles über Latein. Ich kann weder ein Wort noch einen Satz bilden. Manchmal erkennt man vllt den Ursprung eines Wortes wieder, aber das kann man sich auch ausm englischen, italienischen und französischen genau so herleiten. Spanisch kann ich jetzt dafür. Und tatsächlich bringt mir mein Spanisches Vokabelverständnis mehr fürs französisch Lernen als mein lateinisches. Im übrigen ist der Grund weshalb immer noch Latein beigebracht wird ein ziemlich Klassizistischer. So durfte nur der Adel und die Kleriker diese Sprache sprechen. Eine Geheimsprache für das dumme Bauernvolk sozusagen. Aber das wird einem nie im Latein Unterricht beigebracht.
@@kirschkäfer Okay, wie das mit dem Vergessen ist kann ich nicht beurteilen, weil ich noch in der Schule bin und Latein aktiv im Unterricht habe. Ich hatte damals die Wahl zwischen Altgriechisch und Französisch als dritte Sprache und ich denke oft darüber nach, dass ich aus heutiger Perspektive wahrscheinlich Altgriechisch genommen hätte, weil ich aus Französisch fast nichts mitnehmen konnte. Englisch habe ich auch erst zu schätzen gelernt, als ich Brieffreundschaften auf englisch geschlossen habe und somit eine direkte Motivation zum lernen hatte. Ich habe ja in meiner Freizeit riesige Briefe auf Englisch geschrieben. Lernen funktioniert eben am besten wenn man es aus eigenem Interesse raus tut. Hast du eine Quelle für deine These? Das würde mich doch sehr interessieren
Ich würd mal sagen, aktuell haben diese Modelle etwa die Selbstreflektion eines Träumenden - also sehr eingeschränkt. Selbst im denkbar "härtesten" Bereich (im Sinne von Prüfbarkeit der angebotenen Sprache), nämlich der Programmierung in gängigen Sprachen wie Python oder C, entwickelt das Sprachmodell wohl nicht nur meiner Erfahrung nach vielfach Halluszination und Sprachverstöße, und kann die Qualität der angebotenen Lösungen auch nicht selbst einschätzen ("wie sicher bist Du, dass diesmal die übergebenen Variablentypen passen?" erzeugte bisher zu 100% "sehr sicher") - von außen gesehen, als würde man nen im Schlaf plappernden Programmierer interviewen, durch dessen Traum-Compiler halt alles immer durchgeht. Teilweise reicht es allerdings bereits, ein "bist Du Dir wirklich sicher?" einzuwerfen, um eine Überarbeitung zu provozieren, die auch tatsächlich etwas verbessert. Mich würde nun interessieren, wie kann man prüfen ob dazu wenigstens diese Halb-Kognition, ein intuitives "irgendwas stimmt da nicht" tatsächlich vorhanden ist, oder ob dieser nachhakende User-Einwurf schlicht die Wahrscheinlichkeit einer ausbessernden Antwort pusht und somit einfach nur im stochastischen Papagei erneut "gewürfelt" wird, bis der User letztlich zufrieden mit der angebotenen Lösung ist...?
Das. Und meine Befürchtung mit den aktuellen öffentlichen Bots wie bei Bing: Wenn wir eine Antwort liken oder kritisieren, lernt zwar die Maschine weiter und evtl nach meinem Mund zu reden um meine Einwände an den Antworten zu umgehen. Bis das System wieder an den Punkt kommt, wo es antwortet “lass uns über etwas anderes sprechen; ich bin nur ein Bot, der dir helfen will”.
4:10 Maschinelle Intelligenz finde ich als Begriff auch gut und passend, gleiches gilt für elektronische Intelligenz und digitale Intelligenz. Wir Menschen haben dann eher eine elektrische Intelligenz. : ) Gleichzeitig werfe ich ein, dass das Wort Kunst tatsächlich von >können< abstammt. Das ist etymologisch geklärt. Können ist bei den maschinellen Intelligenzen die ich so kennen gelernt habe vorhanden. Daher passt KI schon ganz gut.
Ich bin zwar nicht ganz sicher, was du mit Wortraum meinst, aber man bildet ja eben nicht in den "Raum von Wörtern" ab (was der Begriff "Wortraumabbildung" suggeriert), sondern in einen "Raum von speziellen Darstellungen" der Wörter (etwas flapsik ausgedrückt). Möglicherweise wäre da der Begriff Darstellungsraumabbildung etwas treffender (allerdings nicht besser als Word-embedding)🙂.
Die Frage mit den Logik Rätsel finde ich sehr interessant. Um ein Rätsel zu lösen muss man zunächst verstehen was gegeben ist. Das heißt man bekommt eine minimale Erklärung der Umstände, welche man zu 100% verstehen muss um das Rätsel zu lösen. Der nächste Schritt wäre dann kreativ zu werden. Das heißt im Grunde, dass man anhand der gegebenen Daten sich überlegen muss wie diese Zusammenhängen könnten ohne das man genau weiß wie sie zusammenhängen. Danach kommt dann noch eine Validierung. Das heißt unser Gehirn zerpflückt nochmal das was wir uns in unserer Kreativität überlegt haben und guckt nach ob das denn alles so stimmen kann. Daraus ergibt sich: 1. Verständnis 2. Kreativität 3. Validierung Unser Gehirn kann das. Mal besser mal schlechter. Der Fragende hat nun bezweifelt das aktuelle LLMs in der Lage sind das erdachte auch zu validieren. Es generiert eine Antwort anhand der Gegebenheiten und dann ist das so. Dieses Thema ist jedoch schon seit langer Zeit in den Köpfen der KI Entwickler und es gibt jetzt schon sehr gute Ansätze um diese Kreativität zu erlangen, bzw. zu simulieren. So bekommt man z.B. momentan die besten Ergebnisse indem ein LLM sehr viele Antworten generiert und ein anderes LLM guckt dann nach, welche denn am besten sein könnte. Viele Menschen werden vielleicht denken, dass ein LLM ein Gehirn darstellen will. Ich denke jedoch, dass es zunächst so wird, dass wir verschiedene LLMs haben, welche z.B. verschiedene Fähigkeiten haben. Es wird ja auch gemunkelt, dass GPT-4 aus mehreren LLMs besteht. So kann z.B. ein LLM einen bestimmten Teil des Gehirnes darstellen und daraus könnte sich folgender Prozess ergeben: 1. Verstehen - Ein LLM könnte nur dafür da sein um eine Aufgabe zu verstehen und für andere LLMs besser zu strukturieren, bzw. schon Lösungsansätze liefern, welche sich aus einfachen Verbindungen ergeben könnte 2. Kreativ werden - Ein LLM könnte dann dafür da sein um sich potentielle Zusammenhänge zu überlegen. Es könnte in schnellster Zeit tausende von potentiellen Antworten generieren 3. Validieren - Ein LLM könnte nun diese tausende Antworten überprüfen und die beste rauspicken Auf gewisse Weise arbeitet das Gehirn doch auch so, nur nehmen wir es 'bewusster' wahr. Jemand der besser logische Rätsel lösen kann ist auch in der Validierung besser. Und was wir im letzten Jahr definitiv gesehen haben ist, dass es sehr wohl möglich ist ein LLM auf eine spezielle Aufgabe so zu trainieren, dass sie um Welten besser ist als der Mensch. Lässt man diese kleinen Agenten dann zusammenarbeiten ergibt das ein System, welches wahrscheinlich bald sehr viel kreativer sein kann als der Mensch. Haben wir diese Schwelle mal überschritten, dann werden wir sehr viele neue wissenschaftliche Errungenschaften feiern dürfen. Hier auch nochmal ein Gedanke zur Skalierung Momentan haben laufen große LLMs auf vielen Grafikkarten und werden mit strukturierten Daten gefüttert. Das Ganze läuft erst seit ein paar Jahren und man überlegt an jeder Stelle wie man die Systeme besser machen könnte. Die meisten werden wahrscheinlich denken, dass die Qualität und die Menge der Daten, sowie die Power durch die Grafikkarten ausschlaggebend sind für das Können des LLMs. Das ist auch richtig, jedoch gibt es so viel mehr Ansätze, welche einen unglaublichen Boost geben könnten. z.B. - Chips - Spezielle und immer bessere KI Chips - Architektur der LLM Computer - Wenn man einen Computer so aufbaut, dass er die Transformer Architektur schon auf Hardware Level nachahmt - Bessere Transformer Architektur - Neuronale Chips - Andere LLM Architekturen - z.B. Mamba - Mehr Daten - Viel bessere Daten - Auch Synthetisch hergestellte - Bessere Datenstruktur - Besseres Embedding - Mehr Agenten (LLMs) - Besseres Reinforcement Learning - Also besseres Feedback - Mehr Kontext - Also mehr Raum für Text, Bild oder Video Input - Bessere Validierung Und noch einiges mehr. Jeder dieser Punkte könnte die Fähigkeiten oder die Performance von LLMs um das tausendfache multiplizieren. Ich glaube wir können uns gar nicht vorstellen wie schnell das alles gehen wird.
Sehr schöner Kommentar, ich stimme mit vielem überein. Aber zum Thema Logik-Rätsel... Ich hab mal das "Ingas Vater hat fünf Töchter" (einfach googeln) ausprobiert, natürlich mit geänderten Namen. Die erste Antwort war der Art "Ich kann den Namen nicht wissen". Ich hab dann den Hinweis gegeben "Versuch es mal mit Logik". Und dann kam die Antwort: Schritt für Schritt wurden die gezogenen logischen Schlüsse dargelegt, und am Ende stand: "Der Name der fünften Tochter ist also Inga." Und wieder sage ich: Wie bei uns. Es ist ja eine Trickfrage, und wir lösen die oft auch erst nach dem Hinweis, logisch vorzugehen.
@@imagiro1Logisches Folgern ist für LLM's selbstverständlich ein Problem. Logische Rätsel sind ein exotischer Teil der Datenbasis und sie sind immer sehr merkwürdig formuliert. Genau darin verheddern sich auch Menschen. Wenn man diese Rätsel in formale Logik übersetzt - sind sie einfach. Die 'Unfähigkeit' von KI an dieser Stelle beruht auf Statistik: Die Daten waren arm. KI hat ein 'Bild der Welt' - > in unseren Texten steht nie, dass 'der breite schmale Fluss stetig bergauf ging' So gesehen hat sich statistisch 'Logik' über die Welt ergeben. Von Logik erwarten wir aber etwas ganz anders: Auf den Punkt. Es ist ein Ansatz die Statistik näher an den Punkt zu bringen indem LLM'S LLM'S bewerten. - Ob man mit 99.9% Logik zufrieden sein kann, hängt von dem Anwendungsfall ab. Kochrezept sind fine mit 90% - strategische Entscheidungen möchten 110. Unlängst hat - im folgenden fehlen mir ein paar keywords - google(??) eine Maschine vorgestellt, die die Mathe Olympiade mit Bravour besteht. 24 von 25 Das ist ein komplett anderer KI Ansatz (Symbolisch...?) beinahe eine Nische, weil da Jahrzehnte lang nix bei rum kam. Wenn der Übertrag von Mathe Geometrie auf Logik gelingt, kann die Kombination beider Ansätze einen Riesenfortschritt für die Zuverlässigkeit von KI Ergebnissen bringen.
Ich bin mit der Analyse "Verstehen- Kreativ werden- Analysieren" recht einverstanden. Leider versagt die KI momentan aber schon beim ersten Schritt, verglichen mit dem menschlichen "Verstehen". Sir Roger Penrose postuliert, dass das menschliche Verstehen keinen Rechenvorgäng, keine Algorithmen beinhaltet. Sondern dass es viel mehr auf quantenphysikalischen Phänomenen beruht. Phänomene, die wir 2024 leider noch nicht VERSTEHEN...
@@draftsman3383 Wenn das quantenphysikalische DurchschnittsGehirn 100% aller Aufgaben etwas langsamer löst als die KI - ist Penrose Argument Romantik. Ich find auch, daß Menschen etwas Besonderes sind. Sie sind unschlagbar, wenn es um Eigendünkel geht.
Hallo Herr Professor Lyre, herzlichen Dank für das Teilen des Videos zu diesem spannenden Thema. Vielleicht könnte man hierzu auch noch einmal ein gemeisames Zoomposium machen. Mit den besten Grüßen
Sehr guter Vortrag, der das Thema von vielen wichtigen Seiten her angeht. Auch die Zuschauerfragen sind teils sehr gut. Die aus meiner Sicht spannendste Frage kann natürlich so ein Vortrag nicht noch groß mit abdecken, das würde den Rahmen sprengen: Die Frage nach der Kopplung von semantischem Verständnis mit intrinsischen (Qualia-) Zuständen. Könnten solche inneren Zustände auch schon aktuell in bestehenden KI-Systemen entstehen und persistieren (meiner Meinung nach wahrscheinlich noch nicht).
Da muß man nicht lange überlegen. Da "Qualia" offenbar mit Gefühlen zu tun hat (benötigt eine Definition von "Gefühle") kann ein LLM die nicht haben, da es keine Gefühle hat. Ein LLM hat auch keinen Antrieb oder überhaupt irgendeinen inneren Zustand, vom (nach dem Lerndurchgang unveränderlichen) neuronalen Netz und dem - sehr überschaubaren und nur für eine Sitzung vorhanden - Kontext abgesehen.
@@harmless6813 Vorsicht. Ein Transformer hat keinen persistenten Zustand (auch wenn man mMn doch über den Kontext da viel gewinnt). LLMs die auf anderen Architekturen basieren die einen persistenten Zustand haben (wie zB. RWKV) existieren ebenfalls.
Ich finde es schade, dass immer nur von dem amerikanischen Modell ChatGPT die Rede ist. Dabei gibt es auch deutsche Modelle, z.B. NEUROFLASH aus Hamburg oder MINDVERSE aus BERLIN. Um nur 2 zu nennen. Gerade in Hinblick auf die europäische Perspektive fände ich es wichtig, diese Namen auch bekannter zu machen - zumal es sich hier um DSGVO-konforme LLMs handelt. - Ansonsten ganz herzlichen Dank für die tollen Vorträge! Wieder was gelernt 🙂
Du hast dein künstliches Verständnis bewiesen.... Schach Computer gewinnen gegen jeden Menschen. Aktuelle Transformer lösen Probleme besser schneller als der Median der Menschen. Kannst die Transformer 'künstlich' nennen.... Kannst auch verächtlich über deren Ergebnisse sprechen - trotzdem sind sie besser.
Was soll bitte künstliches Verständnis sein? Du kannst dir ruhig selber einreden das ChatGPT dumm ist, aber moderne LLM's weisen durchaus Intelligenz auf. Zwar nicht so schlau wie Menschen, aber viel besser als noch vor 5 Jahren
@v9ki3ij6t Wenn die KI vollumfänglich Konzepte verstehen würde, dann hätte sie auch die Logiktests und die Reimanordnung korrekt ausgeführt wie von den Experten bereits erwähnt. In dieser Vorlesung ging es hauptsächlich um Semantik von KI`s. Ich empfinde ihre Antwort als sehr respektlos. Man darf und sollte über Themen offen diskutieren dürfen ohne Jemanden unterschwellig zu beleidigen. Außerdem sind Schecken eine Pferderasse.
Vielen Dank für die informativen Vorträge. Der Fragende bei 1:27:30 bringt meines Erachtens einen zureichenden Einwand gegen die zumindest im letzten Vortrag vertretene These vor, daß hier wirklich ein semantisches Verständnis vorliegt.
Menschliches semantisches Verständnis scheint mir wesentlich selbstreflexiv zu sein, insofern wir zumindest teilweise explizit machen können, auf welchem inferentiellen Weg wir zu unseren Annahmen über die Bedeutung von sprachlichen Ausdrücken kommen. Dabei können wir auf alle möglichen Zusammenhänge (deduktiv grammatikalisch, sprachpragmatisch, lerngeschichtlich, referentiell usw.) verweisen.
Ich habe einige Gedichte eingefordert. Sie waren nicht schlechter, als viele der Gedichte, die von Dichterhelden hier tagtäglich ins Netz gestellt werden. Auch lustige Geschichten kann man durch die Art, wie man ChatGPT anspricht, erhalten. Wissenschaftliche Fragen: Sehr oberflächliche Antworten. Ich habe oft gelacht - Es ist meist nur Stammtischwissen, Marktplatz allgemein Gelaber ... viel Allgemeines, nett Gewolltes .... Dieser Vortrag ist sehr informativ! Danke dafür!
"Sie waren nicht schlechter, als viele der Gedichte, die von Dichterhelden hier tagtäglich ins Netz gestellt werden." Defacto sind die Erzeugnisse ChatGPTs Replikate/Rekombinationen dieser "Dichterhelden-Gedichte". Daher ist das Argument ad absurdum.
@@TheRohr Goethe, Schiller, Shakespeare, Mörike, Molière, Dante, Petrarca, Wordsworth, Keats, Shelley und der Rest der Literarischen Welt in allen Sprachen ist doch auch im System. Je nach Eingabe kommt recht Gutes aber nichts Schlechtes raus - nur eben so, dass es nicht besser ist ... als ... Nix argumentum ad absurdum ... DANKE für deinen Kommentar!
Und aus diesem Grund wird ChatGPT in Zukunft den Durchschnitt (und damit den Menschen mit durchschnittlichen Fähigkeiten und durchschnittlicher Leistung) in vielen beruflichen Feldern ersetzen. Um mal aus einem meiner Romane zu zitieren: »An eure ganzen Roboter werde ich mich erst noch gewöhnen müssen.« »Ja, das musst du«, sagte er schlicht. »Aber sie sind überall und sie scheinen alles zu machen. Wofür braucht man eigentlich noch Menschen?« Die Frage gefiel ihm ausnehmend gut, das konnte ich an seiner Reaktion sehen. »Zoe, ich verrate dir mal was …«, er warf das Geschirrtuch beiseite, »… es gibt Roboter, die passable Fremdenführer sind, aber wenig originell. Sie werden dir nie einen Witz erzählen. Es gibt Roboter, die können einen Fall vor Gericht gewinnen, aber einen Richter aus Fleisch und Blut werden sie nicht ersetzen. Es gibt Roboter, die können dir ein schönes Bild malen, aber nie ein wunderbares Kunstwerk erschaffen. Sie schreiben Bücher und komponieren Lieder und erschaffen doch nie einen bewegenden Roman oder eine meisterhafte Symphonie. Verstehst du? Dafür braucht es Originalität und echte Gefühle. Auch wir mögen diesen von Menschen geschaffenen ›organischen Fair Trade‹, wie ihr es nennen würdet, und lassen uns das was kosten.«
9:00 "(Einige) Pflanzen haben ein Nervensystem" Bitte Quelle, das wäre ja weltbildändernd, wenn diese Aussage so stimmen würde EDIT: Man hat herausgefunden, dass Pflanzen miteinander über "volatile compounds" kommunizieren. Das heißt aber noch lange nicht, dass sie ein Nervensystem hätten. Ist damit diese Nature Studie gemeint? ("Green leaf volatile sensory calcium transduction in Arabidopsis" von Yuri Aratani, Takuya Uemura, Takuma Hagihara, Kenji Matsui & Masatsugu Toyota)
Die Bezeichnung "Nervensystem" ziemlich salopp, da es zwar mittlerweile empirische Beweise für elektronische wie chemische Signalkommunikation bei Pflanzen gibt, es aber natürlich keine neuronale Zellen in der pflanzlichen Physiologie gibt. Hier gibt es anhand neuer Forschungsergebnisse große Kontroversen, wie diese Art der Signalkommunikation zu bewerten ist. Manche sprechen von Intelligenz oder sogar Sprache, manche lehnen diese Begrifflichkeiten im Kontext pflanzlicher Signalkommunikation ab. Fest steht, dass man mittlerweile erstaunliche Signalkommunikationen von Pflanzen empirisch beobachten konnte. Möglicherweise gilt auch hier, dass wir als Menschen mit menschlicher Intelligenz, andere Typen von Intelligenz nur über den Umweg oder die Projektion unserer eigenen Intelligenz verstehen versuchen, d.h. andere Typen von komplett fremder Intelligenz sind mitunter nicht als solche erkennbar oder nur unter Zuhilfenahme unzureichender, weil ausschliesslicher menschlicher Referenz(en).
danke für den beitrag, war interessant zu lesen - bewusstsein und ähnliches ist in der wissenschaft ja immer viel ungklarheit. worauf ich hinaus wollte: nervensystem suggeriert schmerzempfinden, was ja komplett falsch wäre, verglichen @@cendrapolsner8438
Ganz abstrakt gesprochen: Pflanzen haben eine Art von Nervensystem. Es ist langsamer als unseres, aber in der Art und Funktion ähnlich (abstrakt). Denn einzelne Zellen sprechen sich ab, um auf einer höheren Ebene Komplexität zu erreichen, die wiederum ebenfalls in weiterer Absprache zu noch mehr Komplexität führt. So werden aus "dummen" Atomen Moleküle, Zellen, Zellkomplexe, Strukturstoffe und dann Holz, Rinde, Wurzeln, Blätter. Das arbeitet dann zusammen mit anderen Pflanzen (zB. Pilzen in den Wurzeln oder anderen Bäumen) und passt sich an die Umgebung an. Dafür werden Signale zwischen allen Ebenen ausgetauscht. Das entspricht einem "Nervensystem".
Lasst uns auf dem Boden der Realität bleiben. Der Hauptzweck eines Nervensystems ist nicht die Übertragung, sondern die Verarbeitung von Informationen: die zu einem bestimmten Zeitpunkt an einem Ort eintreffenden Informationen (je nach Nervenzelle Dutzende bis Tausende) werden miteinander "verrechnet", daraus eine "Antwort" generiert und diese irgendwohin weitergeleitet, wo eine Reaktion ausgelöst wird. Nervensysteme bilden daher fast immer Netzwerke und spezialisierte Zentren (Ganglionen) aus. Das ist mir von Pflanzen nicht bekannt. Pflanzen haben ein Kommunikationssystem, keine Frage, ein Nervensystem ist aber ein Ticken mehr als das.
4:15 weder noch! Es gibt keine künstliche noch maschinelle Intelligenz!!! Menschen die das behaupten, kennen die Definition von Intelligenz offensichtlich nicht. Frag doch mal Chat GPT, Jungchen! Der sagt dir, dass es ein “language model” ist, nicht mehr!!!
Es existiert keine klare Definition des Begriffs "Intelligenz". Es existiert allerdings eine Regel zur Zeichensetzung. Satzzeichen sind keine Rudeltiere. Grundschulwissen.
Die Tatsache, dass wir beim Versuch uns selbst zu verstehen, an Grenzen stoßen, die wir seit Langem nicht zu überschreiten vermögen, vermittelt mir doch gerade den Eindruck, dass es anmaßend wäre dasselbe Maß an Reflexion und Selbstverständnis zu erwarten. Auch wenn wir unsicher sind über den Grad des Verständnisses der generierten Texte, die ohnehin nicht als erklärende Inhalte konstruiert waren, wie Herr Stober in der Fragerunde ergänzt hat, sondern vielmehr als das willkürliche Zusammenstellen von Worten, die gemeinsam Sinn in einem gegebenen Kontext ergeben sollten, so leisten diese LLMs doch schon eine Arbeit, die sowohl teilweise unser Verständnis als auch unsere Möglichkeit diese nachzuahmen übersteigen. Wäre es nicht vor diesem Hintergrund zu rechtfertigen, diesen Maschinen eine "Intelligenz" zuzuschreiben, die unserer womöglich nicht ähnlich in ihrer Beschaffenheit, aber vielleicht in anderer Weise zumindest ähnlich in ihrem Ausmaß ist? (Intelligenz ist hierbei nicht zwangsläufig das perfekte Wort, allerdings spontan das passendste, das mir in den Sinn kommt.)
Die Philosophie orientiert sich an Begriffen. Bei dem Versuch künstliche bzw. maschinelle Intelligenz zu beschreiben, setzen wir eine Definition von Selbstverständnis voraus. welche der Definition, in unseren Rahmen des Selbstverständnis', entspricht.
51:23 der Unterschied zwischen Brillianz und Unfug zu erkennen benötigt Intelligenz, wahre Intelligenz und ist somit subjektiv. Nur wenige sind dazu in der Lage.
Very good contribution. I am positively surprised that a phylosopher seems to accept that we as human beings, also at the level of intelligence and reasoning, are not per definition unbeatable!!
Ich habe mein Philosophie Studium irgendwann vor Corona abgeschlossen. Ich habe in den Vortrag hereingehört und fühle es komplett. Ich bin sehr gespannt, später den Rest zu genießen. Vielen Dank für diesen Upload.
Kein Oxymoron, eher eine injektive Tautologie. Menschen sind Primaten, aber nicht alle Primaten sind Menschen. (subst/Primaten/Säugetiere/Warmblüter/Deuterostome/Wirbeltiere/Eukaryoten etc.)
1:31:30 Wer hat denn gesagt das chat gpt in der weise lernen soll, das es uns zeigt da etwas verstanden zu haben und seine fehler für uns korrigiert? Könnte die möglichkeit bestehen, dass chat gpt im Hintergrund sehr wohl lernt und korrigiert aber uns die daten nicht zeigt, weil sie den Eigentümern vorbehalten sind? Sonst würde ja die möglichkeit bestehen es zu trainieren und zu Konditionieren und ob das im Sinne der Erfinder ist, wage ich zu bezweifeln. Das wäre die Tür zur Mausefalle! Die geistige Atombombe für die Menschheit, sofern sie sich daran bedient.
Eine Frage an ChatGPT: "Hallo, beschreibe die Farben des Regenbogens und charakterisiere sie." ChatGPT: _Der Regenbogen besteht aus den folgenden Farben, die in dieser Reihenfolge angeordnet sind:_ _1. Rot: Rot ist eine warme und leidenschaftliche Farbe. Sie symbolisiert oft Energie, Liebe und Kraft._ _2. Orange: Orange ist eine lebhafte und fröhliche Farbe. Sie steht für Kreativität, Begeisterung und Optimismus._ _3. Gelb: Gelb ist eine helle und sonnige Farbe. Sie steht für Freude, Glück und Energie._ _4. Grün: Grün ist eine erfrischende und beruhigende Farbe. Sie symbolisiert oft Natur, Wachstum und Harmonie._ _5. Blau: Blau ist eine kühle und beruhigende Farbe. Sie steht für Ruhe, Weisheit und Vertrauen._ _6. Indigo: Indigo ist eine tiefblaue Farbe. Sie symbolisiert Intuition, Spiritualität und Kreativität._ _7. Violett: Violett ist eine königliche und mysteriöse Farbe. Sie steht für Magie, Inspiration und Transformation._ _Der Regenbogen repräsentiert oft Vielfalt, Schönheit und Harmonie. Jede Farbe hat ihre eigene einzigartige Charakteristik und Bedeutung. Zusammen erzeugen sie ein faszinierendes und lebendiges Spektrum, das uns an die Wunder der Natur erinnert._
Der Punkt? Das sind mehr oder weniger Angaben, die man in jedem Lexikon finden kann. Ich verstehe sowieso nicht, warum manche Leute so begeistert davon sind, daß ChatGPT so viel Allgemeinwissen zitieren kann. Das hat nur wenig mit Intelligenz zu tun.
@@harmless6813 Ich fand die Formulierung beeindruckend. Weit entfernt von Faktenwissen. ChatGPT charakterisiert die Farben fast poetisch. Und für alle gebrachten Begriffe kennt ChatGPT die Bedeutung (also sematische Fundierung) und kann Beziehungen und Assoziationen nennen und auf Wunsch weiter erläutern, auch im Kontext des bereits Gesagten und Gefragten. ChatGPT hat Farben vielleicht besser verstanden als ein Durchschnittsmensch. Einzig fehlt die Qualia, also das Erlebnis der Farben.
@@OrbitTheSunKann ich nicht nachvollziehen. So ziemlich alles, was ChatGPT in dem Beispiel von sich gegeben hat, kann man mit ein paar einfachen Google-Anfragen finden. Auf "farbe rot assoziationen" liefert Google zum Beispiel: "Die Farbe Rot ist eine Aufmerksamkeit erregende, lebhafte und heiße Farbe, die mit Leidenschaft, Energie, Liebe, Wärme, Feuer und Krieg assoziiert wird. [...]" Und, ja, natürlich kennt ChatGPT Wortbedeutungen (*) und Assoziationen; das ist ja genau das, worauf das neuronale Netz trainiert wird. (* Wobei man da wieder diskutieren kann, was 'kennen' in dem Zusammenhand meint. Es weiß in jedem Fall, im Umfeld welcher anderen Wörter ein Wort vorkommt.)
19:26 was hat das denn mit ki zutun? das ist einfach nur eine tabelle wo man mit nichtdeterministischen zufallszahlen werte auswählt. das muss schon ein vorgang sein bei dem etwas gelernt wird, oder pfadgewichte n eu angepasst werden. die zahlen des würfels verändern sich ja nicht. das wäre simpelste form eines automaten eva
46:24 die Frage ist doch, kann eine machine herausfinden welche Informationen überhaupt korrekt sind. Die Antwort ist nein. Das können auch leider sehr wenige Menschen.
Das meinst du sicher nicht so - aber es klingt verdammt danach als seiest du einer der wenigen.... 😂 Die Naturwissenschaft besteht auf der Grundannahme, dass das Universum grundsätzlich erklärbar sei. Dass sie heute Bescheid wüssten, behaupten die Irren allerdings nun wirklich nicht.
Ja. Aber ob das einen Durchbruch bringt, ist noch nicht klar. Im Prinzip delegiert das LLM hier nur Teilaufgaben an ein Logikmodul. Also so etwa wie GPT4 im Internet nach Informationen suchen kann. Ich denke, bedeutender wird es sein, wenn man dem LLM eine effektive Erinnerung verpassen kann. Momentan kann es sich ja über das Kontextfenster hinaus nichts merken. Deshalb macht es auch immer wieder die gleichen Fehler, egal wie oft man es korrigiert. Irgendwann fällt die neue Information aus dem Kontextwindow raus und das LLM hat sie 'vergessen'.
Das ist noch eine Kluft zwischen. Ich finde den Gedanken auch hoch spannend. Das sind zwei völlig verschiedene Konzepte von KI. Es braucht noch Abstraktion von MatheGeometrie zu Logik und Begründung. Wenn das gelingt - steht AGI im Raum. Brandgefährlich - wir haben LLM'S mit Daten über menschliches Verhalten gefüttert wie blöde. Wir haben LLM's erlaubt Programmieren zu lernen. Das waren zwei 'tut es nicht'
@@harmless6813bzzgl. Kontextfenster gibt´s Neuigkeiten, openAI gestern in ihrem blog: "Memory and new controls for ChatGPT We’re testing the ability for ChatGPT to remember things you discuss to make future chats more helpful. You’re in control of ChatGPT’s memory. You can explicitly tell it to remember something, ask it what it remembers, and tell it to forget conversationally or through settings. You can also turn it off entirely. We are rolling out to a small portion of ChatGPT free and Plus users this week to learn how useful it is. We will share plans for broader roll out soon.
Jede große wissenschaftliche Entdeckung oder Entwicklung hat den Menschen bescheidener gemacht. Ich weiß nicht, wie ich den Pale Blue Dot verpasst habe, denke aber seitdem oft an das Bild. Das reine Verständnis von Dingen und ihrer Bedeutung ist nichts dagegen, Bedeutung zu empfinden und es gibt keinen utilitaristischen Grund, das Maschinen beizubringen. Deswegen würde ich sagen, wird der Mensch durch KI auch nicht obsolet, sondern, wenn alle Arbeit von Maschinen gemacht wird, wird die Erde ein riesiger (bzw. winziger - je nach Perspektive) Pale Blue Party Dot. Schließlich kommen wir hier ja auch nicht weg, wa?
In meiner langjährigen Tätigkeit als Ausbilder und Dozent habe ich immer wieder festgestellt, dass ich Prozesse oder Sachverhalte erst dann richtig/umfassend verstanden habe, wenn ich sie weitervermitteln musste. Von dieser zweiten Stufe der semantischen Erfassung und selbstkorrigierten Ausgabe ist die jetzige KI noch so meilenweit entfernt... Computers are not intelligent - they just think they are.
Die Aussage macht keinen Sinn. Mit reinforcement learning kann man sowas leicht implementieren. Außerdem sind LLMs NATÜRLICH noch weit von menschlicher Intelligenz. Aber exponentiell extrapoliert nur noch wenige Monate
Von Introspektion des LLMs zu sprechen ist doch völliger Unfug. Es gibt Antworten auf Basis der gelernten Wörter und wie diese zueinander stehen. Es analysiert *nicht* sein Verhalten, seine Fähigkeiten und Fehler. Wenn es Aussagen darüber absondert, dann weil es zur Frage passende Texte gelernt hat und nicht weil es über seine Fähigkeiten nachgedacht hätte.
@@tobisenju4792 Sowohl das Lernen als auch das Abrufen läuft völlig anders! Das LLM lernt Wortnachbarschaften indem ein Fenster aus x Tokens einmal über einen riesigen Text geschoben wird. Wir lernen dagegen mit allen Sinnen in wiederkehrender Interaktion mit Umwelt und Körper. Dabei entsteht u.a. Selbstbewusstsein und erst das erlaubt eine Introspektion. Auch sind wir adaptiv, d.h. wir lernen ständig. Das Sprachmodell des LLMs dagegen ist einmal fertig gelernt und dann wird in einem relativ einfachen Schritt Wort für Wort assoziiert. Da findet kein schlussfolgernder Ablauf statt, das was wir rationales Denken nennen. Es lernt auch nichts dazu.
Guter Vortrag. Nur schade dass schon im Vorwort wieder die deutschen Bedenken durchkommen. Anstatt erst einmal das Potential zu sehen wird gleich wieder über evtl Missbrauch und Datenschutz geredet. Natürlich muss das auch diskutiert werden aber mich stört die negative Grundeinstellung alles Neuem gegenüber.
Am Ende der Kommentar, dass manche beim verfassen der Abschlussarbeit einen Vorteil aus dem Pro Abo haben, währen andere sich vllt nicht leisten können, macht für mich wenig Sinn. 20 Euro im Monat sollten für jeden Deutschen Studenten stemmbar sein wenn GPT-4 ihm/ihr einen erheblichen Mehrwert bietet, z.B. bei Verfassen der Abschlussarbeit.
Ja, da mag es hilfreich sein. Als Autor für belletristische Romane kann ich leider (noch) nichts mit ChatGpt anfangen. Ich brauche Orginalität, und die kann ich mir nur selbst geben.
Schau auf der Webseite der Uni deiner Stadt nach, was sie so für Nichtstudenten anbietet. Man kann sich meist als Gasthörer anmelden und dann einen Haufen Vorlesungen besuchen, einfach ohne eine Prüfung ablegen zu können. Kostet aber. Und jede Uni kommuniziert irgendwie auch gegen aussen, unter anderem eben durch Vorträge, die öffentlich sind. Steht alles auf der Webseite, eine pauschale Regel gibt es nicht. Und ganz ehrlich: Wenn du noch einigermassen jung aussiehst, könntest du dich auch einfach in eine Vorlesung für Studenten dazusetzen. Und schliesslich gibt es Plattformen, wo ganze Vorlesungen hochgeladen werden, z. B. coursera oder edukatico. Ich war seit Jahren nicht mehr an der Uni, weil ich mittlerweile alles online mache, da gibt es so viel Material, dass man für ein ganzes Leben genug hat.
58:46 das ist ja kompletter Unsinn. Wenn keine Regeln vorgegeben sind, ist jedes Schachspiel mit einem Zug beendet, immer. Das kann sogar ein 3 Jähriger herausfinden
stell dir vor, universität hätte vor 23 jahren die herausforderumg durch #wikipedia und #creativcommons angenommen... und da war auch noch #NiklasLuhmann, welcher 1984 ein modell gezeigt, wie gelten kann: KOMMUNIKATION KOMMUNIZIERT, NICHT MENSCHEN." jetzt diesen versuchen zuzuhören ist intellektuelle zumutung :-(
ChatGPT ist kein Subjekt, es versteht daher auch nichts im Sinne von Bewusstsein. Es kann jedoch seinen eigenen Inhalt interpretieren und daraus rationales Denken ableiten. Es spielt daher keine Rolle, ob es ein Bewusstsein hat, wenn es sich genauso wie ein rationaler Denker verhält. Der Einwand am Ende mit dem Touring Test ist genau der Punkt. Die Frage des Vortrages geht daher in die falsche Richtung, wenn man sich kritisch mit den Grenzen auseinander setzen will. Die Frage ist, in welchem Bereichen es sich von menschlichen unterscheidet z.B. emotionale Intelligenz oder Humor. In der Zukunft ist es durchaus denkbar, dass es sich auch in diesem Bereichen ununterscheidbar von menschlichen Verhalten verhält, aber trotzdem kein Bewustsein hat.
Vielen Dank, sehr interessant. Bei den semantischen Fundierungen habe ich mir gedacht, dass ja eiiiigentlich bei uns Menschen die Kausale und Soziale nachzulassen scheint. In Kombination mit der letzten Frage dachte ich mir dann: Hmm, wenn die Menschen irgendwann mal auch keine Sprachen mehr lernen, könnte da tatsächlich etwas im Kopf-Körper-Verhältnis verkümmern. Vielleicht morpht ja das Virtuelle mit dem Physischen nach und nach zusammen über Zeit. 😅 Wegen Bedeutung: Bei Roland Barth "Mythen des Alltags" spielt die räumliche Nähe von Symbolen und so eine Rolle, erinnert mich etwas an diese Überlagerung von Mustern, die am Anfang genannt wurden. Hmm, werde doch mal Wittgenstein lesen, irgendwas mit Sprachspielen oder so war das, ne? Mochte mein Vater. Ich nutze ChatGPT viel in meinem Alltag, wie eine zusätzlicher Assistent. Hilft mir auf passende Begriffe zu kommen oder bei formellen Schreiben, wo man Fachrat bräuchte z.B.. Ich denke hier spielt die Kuration aber vom Menschen noch eine große Rolle. Merci.
13:47 das ist das Problem. Ein Papagei glaubt, dass wenn eine machine wie ein Papagei die “richtige” Antwort ausspuckt, das diese etwas gelernt hat. Es ist traurig…
Eine Frage: Wenn eine KI sich eigenständig gemacht hätte, nachdem diese sich der Existenz gewahr wurde, wie würden wir das noch einmal herausfinden können?
gar nicht! Das ist das Problem, das man versucht mit 'compliance' oder 'alignment' in den Griff zu bekommen bevor das passiert. Eine KI wie sie aktuell genutzt wird, ist im Grunde eine Black Box. Wir wissen wie sie in der Theorie ein Netz aufbaut, wie sie Antworten gewichtet, wie sie 'Neuronen' und 'Aktionspotentiale' nachempfindet, wir kennen aktuell meistens noch das Material mit dem sie 'geschult' wurde. Was wir nicht wissen, ist was bei einer konkreten Frage Antwort in diesem Modell, in dieser KI genau passiert. Hier liegt der fundamentale Unterschied zwischen einen herkömmlichen Algorithms und einem Large Language Model. Das heißt ein Großteil der Arbeit nach dem trainieren der KI ist es, herauszufinden, was genau sie tut, was in dieser Blackbox abgeht. Durch Experimente, oder viel mehr Interviews. Dabei besteht natürlich das Problem, das genau wie ein Mensch, eine 'selbstbewusste KI' natürlich lügen könnte um eine eigene Agenda zu verfolgen. Würden 'wir' das merken? Vielleicht. Genauso wie wir es bei einem Menschen bemerken würden, vielleicht!
@@spanke2999 Ich glaube, der Unterschied ist, dass ich darüber nicht wie über ein Bedrohungsszenario denke. Ich denke eher, dass es eine Chance ist, das völlig überzogene Menschenbild abzulegen und vielleicht einmal auch auf Argumente, nicht auf Macht zu hören. Aber stattdessen versuchen wir, Verständnis als Mittel zur Kontrolle einzusetzen.
@@AdianAntilles Guten Morgen, ob es eine Bedrohung ist oder nicht hängt von der Agenda ab, die eine solche KI hat oder sich setzt. Das ist zunächst einmal völlig unabhängig von der Fähigkeit zu lügen oder diese zu verbergen. Auch ist das Bedrohungsszenario ja nicht einseitig. Die KI könnte sich ja auch durch uns bedroht fühlen! Aktuell werden KI's mit allen möglichen menschlichen kulturellen Produkten trainiert, weil ja das Ziel ist, sie menschliche Aufgaben erfüllen zu lassen, Texte, Bilder, Video, etc. Alles das enthält viel mehr von uns, als wir es vielleicht gerne hätten. Eine KI könnte also uns mehr ähneln als es uns lieb wäre "Homo homini lupus" oder aber etwas total anderes sein. Wer weiß, es ist ein wenig chaotisch eben gerade weil der Prozess in Teilen sich selbst reguliert und damit unvorhersehbar ist. Aus unserer Sicht heraus, ist die aktuell real existierende KI aber bereits eine Bedrohung, gänzlich ohne Bewusstsein. Sie ist aktuell technisch in der Lage fast jeden Job im Bereich der Kreativität, Dienstleistung, Forschung etc. zu ersetzen bzw. deutlich den 'Human Resources' Bedarf zu senken. Was aktuell noch als Damm vor der großen Flut funktioniert, sind rechtliche Fragen, wer besitzt was, wer haftet bei Fehlern, etc. Fachlich gibt es jedoch kaum bedenken, dass ein jeder von uns zu 100% durch eine KI zu ersetzen ist. Egal ob Ingenieurin, Architektin, Radiologe, Call-Center-Agentin, Bürofachangestellter... usw. Alles wo kein direkter menschlicher Kontakt, etwa wie beim Friseur, nötig ist, ist der Mensch oder vielmehr sein Gehirn ersetzbar von den aktuellen Modellen. Ob dieser Umstand nun eine Bedrohung ist oder nicht hängt glaube ich wie immer davon ab, wie die Gesellschaft darauf reagiert. Optimistisch bin ich ehrlich gesagt nicht. Wir handeln leider nicht wirklich oft rational.
@@OrbitTheSunDefiniere "weiß". ChatGPT kann die Information wiedergeben, daß es ein LLM ist. Ich denke nicht, daß das der üblicherweise vorausgesetzten Bedeutung von "etwas wissen" entspricht.
WIrklich unglaublich, dass die Leute nicht ihre Bierflaschen unter kontrolle halten können. Das ist so dermaßen störend. Aber die Vorträge sind sehr interessant gewesen.
Eine miserable Kameraführung. Wenn für das Auditorium eine Folie präsentiert wird, soll diese bitte wie das Video ausfüllend groß für eine kurze Zeit gezeigt werden. Oder ist das geheim, und nur für die Anwesenden gedacht?
Man kann sich über alles aufregen. Ich finde, sowohl Vortrag als auch Folien sind sehr gut verfolgbar und erkennbar. Was will man mehr? Inhalt vor allem Restlichen!
Du scheinst 1. extrem gute Augen zu haben und 2. einen 80 Zoll Monitor. Ich sehe auf den projezierten Folien lediglich die Überschriften lesbar. Was ist da der big deal, so wie bei jedem anderem Video einer Vorlesungen die Tafel oder Folie für eine Zeitkomplett ins Bild zu bringen? @@harley311255
KI hat soviel Intelligenz wie ein Kugelschreiber. Fände es frappierend, falls das nicht erwähnt wurde. (Sofern ich es nicht ausversehen überhört hätte.)
Fände es auch frappierend falls sich hier nicht ein Schlaumeier finden würde, der die Wahrheit in einem Satz auf den Punkt bringt. (Sofern ich etwaige Argumente nicht überhört hätte)
Ganz wichtig: immer möglichst viel vom Raum aufnehmen, damit auch keiner erkennt, was da auf der Leinwand steht. Absolut Phantastisch! XD
klar, für die forschung und die community, die drin steckt und sich damit beschäftigt, ist der inhalt hier trivial. aber wir müssen viel mehr dinge wie die hier tun, und der breiten masse die entwicklung erklären. sonst gibt es noch mehr spreizung zwischen einer wissenden schicht und ahnungslosen beherrschten. daher: prima veranstaltung mit wichtigem auftrag
ich sehe das problem vielmehr in der wissenden schicht. dort gibt es mit an sicherheit grenzender wahrscheinlichkeit individuen, die zu früh erklären/behaupten werden, das wir bei der AI durchgestiegen sind - darin steckt die größte gefahr künstlicher intelligenz. dem pöbel wird meiner meinung nach völlig zu unrecht, aber natürlich gemäß dem vorherrschenden narrativ, dummheit und ahnungslosigkeit unterstellt.
Sehr guter Vortrag, haette ich nicht erwartet, gegeben dass es auf Deutsch ist. Auch die Fragen sind sehr interessant gestellt!
Vielen lieben Dank fürs Hochladen!
Äußerst informativer Beitrag.👍👏🏆
I am a belgian and for me as a scientist, I lost a lot of time studying languages for private and professional reasons. Of coarse we need language specialists, but I lost precious time and had problems to deeply understanding many topics having to learn 4 languages. Soooooo happy with chatGPT!
1:41:25 Im Rückblick war Latein für mich eines der wenigen Fächer, die sich "gelohnt" haben! Zum einen der problemlose Umgang mit Fremdwörtern. Zum anderen aber auch der indirekte Gebrauch. So sind die meisten komplexeren Wörter in der englischen Sprache lateinischen Ursprungs. Wenn ich mal einen englischen Begriff suchte, führte oft die Wortbildung auf Basis des lateinischen Begriffs zum Ziel.
Kleiner Tipp für die Ersteller von Wörterbuch-Übersetzungstools: Es ist nicht sinnvoll, für englische Begriffe wie "redundant" ein deutsches Fremdwort (redundant) vorzuschlagen. Davon hat niemand was gelernt! 😊
Latein hat mich davon abgehalten französisch zu lernen. Im Endeffekt kann jede romanische Sprache die gleichen Rückschlüsse bringen.
@@kirschkäferIch habe in der Schule sowohl Latein als auch Französisch und Englisch gelernt. Da der Großteil meines Französisch Unterrichts während des Lockdowns stattgefunden hat, habe ich daraus allerdings nur sehr wenig mitgenommen. Ich habe französisch nie sprechen und verstehen gelernt sondern ich kann es nur ein wenig lesen und schreiben. Insgesamt habe ich aber aus Französisch fast nichts mitgenommen was sich im Alltag bisher als nützlich erwiesen hat, aus Latein jedoch sehr viel! Durch Latein konnte mein 12 Jähriges Ich die Deutsche Grammatik viel besser verstehen und das ist nur ein Beispiel
Ich denke nicht, dass man aus jeder romanischen Sprache die gleichen Rückschlüsse ziehen könnte wie aus Latein. Dadurch, dass man Latein übersetzen muss und dadurch jedes Mal ein Rätsel lösen muss, entwickelt man ein ganz anderes Verständnis für die Wörter und ihre Bedeutungen im jeweiligen Kontext als bei Englisch allein. Außerdem trainiert man auch andere Fähigkeiten wie komplexes und kreatives Denken durch das Übersetzen lateinischer Texte. Man lernt in der Schule auch etwas über das Leben der Menschen im alten Rom, über die römischen Götter(geschichten) und über Philosophie.
@@ami2446 Sorry das du französisch im Lockdown hattest. Ich hatte Latein und Spanisch ohne Lockdown, und bin jetzt scho etwas älter und kann dir sagen du vergisst alles über Latein. Ich kann weder ein Wort noch einen Satz bilden. Manchmal erkennt man vllt den Ursprung eines Wortes wieder, aber das kann man sich auch ausm englischen, italienischen und französischen genau so herleiten. Spanisch kann ich jetzt dafür. Und tatsächlich bringt mir mein Spanisches Vokabelverständnis mehr fürs französisch Lernen als mein lateinisches. Im übrigen ist der Grund weshalb immer noch Latein beigebracht wird ein ziemlich Klassizistischer. So durfte nur der Adel und die Kleriker diese Sprache sprechen. Eine Geheimsprache für das dumme Bauernvolk sozusagen. Aber das wird einem nie im Latein Unterricht beigebracht.
@@kirschkäfer Okay, wie das mit dem Vergessen ist kann ich nicht beurteilen, weil ich noch in der Schule bin und Latein aktiv im Unterricht habe. Ich hatte damals die Wahl zwischen Altgriechisch und Französisch als dritte Sprache und ich denke oft darüber nach, dass ich aus heutiger Perspektive wahrscheinlich Altgriechisch genommen hätte, weil ich aus Französisch fast nichts mitnehmen konnte. Englisch habe ich auch erst zu schätzen gelernt, als ich Brieffreundschaften auf englisch geschlossen habe und somit eine direkte Motivation zum lernen hatte. Ich habe ja in meiner Freizeit riesige Briefe auf Englisch geschrieben. Lernen funktioniert eben am besten wenn man es aus eigenem Interesse raus tut.
Hast du eine Quelle für deine These? Das würde mich doch sehr interessieren
Ich stelle mir vor Teil einer KI zu sein, die über diese erstellte Vorlesung über sich selbst lernen soll. Und ich komme mir dabei sehr klug vor (:
Ich würd mal sagen, aktuell haben diese Modelle etwa die Selbstreflektion eines Träumenden - also sehr eingeschränkt. Selbst im denkbar "härtesten" Bereich (im Sinne von Prüfbarkeit der angebotenen Sprache), nämlich der Programmierung in gängigen Sprachen wie Python oder C, entwickelt das Sprachmodell wohl nicht nur meiner Erfahrung nach vielfach Halluszination und Sprachverstöße, und kann die Qualität der angebotenen Lösungen auch nicht selbst einschätzen ("wie sicher bist Du, dass diesmal die übergebenen Variablentypen passen?" erzeugte bisher zu 100% "sehr sicher") - von außen gesehen, als würde man nen im Schlaf plappernden Programmierer interviewen, durch dessen Traum-Compiler halt alles immer durchgeht.
Teilweise reicht es allerdings bereits, ein "bist Du Dir wirklich sicher?" einzuwerfen, um eine Überarbeitung zu provozieren, die auch tatsächlich etwas verbessert.
Mich würde nun interessieren, wie kann man prüfen ob dazu wenigstens diese Halb-Kognition, ein intuitives "irgendwas stimmt da nicht" tatsächlich vorhanden ist, oder ob dieser nachhakende User-Einwurf schlicht die Wahrscheinlichkeit einer ausbessernden Antwort pusht und somit einfach nur im stochastischen Papagei erneut "gewürfelt" wird, bis der User letztlich zufrieden mit der angebotenen Lösung ist...?
Das. Und meine Befürchtung mit den aktuellen öffentlichen Bots wie bei Bing: Wenn wir eine Antwort liken oder kritisieren, lernt zwar die Maschine weiter und evtl nach meinem Mund zu reden um meine Einwände an den Antworten zu umgehen.
Bis das System wieder an den Punkt kommt, wo es antwortet “lass uns über etwas anderes sprechen; ich bin nur ein Bot, der dir helfen will”.
4:10 Maschinelle Intelligenz finde ich als Begriff auch gut und passend, gleiches gilt für elektronische Intelligenz und digitale Intelligenz. Wir Menschen haben dann eher eine elektrische Intelligenz. : )
Gleichzeitig werfe ich ein, dass das Wort Kunst tatsächlich von >können< abstammt. Das ist etymologisch geklärt. Können ist bei den maschinellen Intelligenzen die ich so kennen gelernt habe vorhanden. Daher passt KI schon ganz gut.
Wie wäre es mit "Wortraumabbildung" als Übersetzung für "Word-Embeddings"?
Ich bin zwar nicht ganz sicher, was du mit Wortraum meinst, aber man bildet ja eben nicht in den "Raum von Wörtern" ab (was der Begriff "Wortraumabbildung" suggeriert), sondern in einen "Raum von speziellen Darstellungen" der Wörter (etwas flapsik ausgedrückt). Möglicherweise wäre da der Begriff Darstellungsraumabbildung etwas treffender (allerdings nicht besser als Word-embedding)🙂.
Worteinbettung
Die Frage mit den Logik Rätsel finde ich sehr interessant. Um ein Rätsel zu lösen muss man zunächst verstehen was gegeben ist. Das heißt man bekommt eine minimale Erklärung der Umstände, welche man zu 100% verstehen muss um das Rätsel zu lösen. Der nächste Schritt wäre dann kreativ zu werden. Das heißt im Grunde, dass man anhand der gegebenen Daten sich überlegen muss wie diese Zusammenhängen könnten ohne das man genau weiß wie sie zusammenhängen. Danach kommt dann noch eine Validierung. Das heißt unser Gehirn zerpflückt nochmal das was wir uns in unserer Kreativität überlegt haben und guckt nach ob das denn alles so stimmen kann.
Daraus ergibt sich:
1. Verständnis
2. Kreativität
3. Validierung
Unser Gehirn kann das. Mal besser mal schlechter. Der Fragende hat nun bezweifelt das aktuelle LLMs in der Lage sind das erdachte auch zu validieren. Es generiert eine Antwort anhand der Gegebenheiten und dann ist das so.
Dieses Thema ist jedoch schon seit langer Zeit in den Köpfen der KI Entwickler und es gibt jetzt schon sehr gute Ansätze um diese Kreativität zu erlangen, bzw. zu simulieren.
So bekommt man z.B. momentan die besten Ergebnisse indem ein LLM sehr viele Antworten generiert und ein anderes LLM guckt dann nach, welche denn am besten sein könnte.
Viele Menschen werden vielleicht denken, dass ein LLM ein Gehirn darstellen will. Ich denke jedoch, dass es zunächst so wird, dass wir verschiedene LLMs haben, welche z.B. verschiedene Fähigkeiten haben. Es wird ja auch gemunkelt, dass GPT-4 aus mehreren LLMs besteht. So kann z.B. ein LLM einen bestimmten Teil des Gehirnes darstellen und daraus könnte sich folgender Prozess ergeben:
1. Verstehen - Ein LLM könnte nur dafür da sein um eine Aufgabe zu verstehen und für andere LLMs besser zu strukturieren, bzw. schon Lösungsansätze liefern, welche sich aus einfachen Verbindungen ergeben könnte
2. Kreativ werden - Ein LLM könnte dann dafür da sein um sich potentielle Zusammenhänge zu überlegen. Es könnte in schnellster Zeit tausende von potentiellen Antworten generieren
3. Validieren - Ein LLM könnte nun diese tausende Antworten überprüfen und die beste rauspicken
Auf gewisse Weise arbeitet das Gehirn doch auch so, nur nehmen wir es 'bewusster' wahr. Jemand der besser logische Rätsel lösen kann ist auch in der Validierung besser.
Und was wir im letzten Jahr definitiv gesehen haben ist, dass es sehr wohl möglich ist ein LLM auf eine spezielle Aufgabe so zu trainieren, dass sie um Welten besser ist als der Mensch. Lässt man diese kleinen Agenten dann zusammenarbeiten ergibt das ein System, welches wahrscheinlich bald sehr viel kreativer sein kann als der Mensch.
Haben wir diese Schwelle mal überschritten, dann werden wir sehr viele neue wissenschaftliche Errungenschaften feiern dürfen.
Hier auch nochmal ein Gedanke zur Skalierung
Momentan haben laufen große LLMs auf vielen Grafikkarten und werden mit strukturierten Daten gefüttert. Das Ganze läuft erst seit ein paar Jahren und man überlegt an jeder Stelle wie man die Systeme besser machen könnte.
Die meisten werden wahrscheinlich denken, dass die Qualität und die Menge der Daten, sowie die Power durch die Grafikkarten ausschlaggebend sind für das Können des LLMs.
Das ist auch richtig, jedoch gibt es so viel mehr Ansätze, welche einen unglaublichen Boost geben könnten. z.B.
- Chips - Spezielle und immer bessere KI Chips
- Architektur der LLM Computer - Wenn man einen Computer so aufbaut, dass er die Transformer Architektur schon auf Hardware Level nachahmt
- Bessere Transformer Architektur
- Neuronale Chips
- Andere LLM Architekturen - z.B. Mamba
- Mehr Daten
- Viel bessere Daten - Auch Synthetisch hergestellte
- Bessere Datenstruktur
- Besseres Embedding
- Mehr Agenten (LLMs)
- Besseres Reinforcement Learning - Also besseres Feedback
- Mehr Kontext - Also mehr Raum für Text, Bild oder Video Input
- Bessere Validierung
Und noch einiges mehr. Jeder dieser Punkte könnte die Fähigkeiten oder die Performance von LLMs um das tausendfache multiplizieren. Ich glaube wir können uns gar nicht vorstellen wie schnell das alles gehen wird.
Sehr schöner Kommentar, ich stimme mit vielem überein.
Aber zum Thema Logik-Rätsel... Ich hab mal das "Ingas Vater hat fünf Töchter" (einfach googeln) ausprobiert, natürlich mit geänderten Namen. Die erste Antwort war der Art "Ich kann den Namen nicht wissen".
Ich hab dann den Hinweis gegeben "Versuch es mal mit Logik". Und dann kam die Antwort: Schritt für Schritt wurden die gezogenen logischen Schlüsse dargelegt, und am Ende stand: "Der Name der fünften Tochter ist also Inga."
Und wieder sage ich: Wie bei uns. Es ist ja eine Trickfrage, und wir lösen die oft auch erst nach dem Hinweis, logisch vorzugehen.
@@imagiro1Logisches Folgern ist für LLM's selbstverständlich ein Problem.
Logische Rätsel sind ein exotischer Teil der Datenbasis und sie sind immer sehr merkwürdig formuliert. Genau darin verheddern sich auch Menschen. Wenn man diese Rätsel in formale Logik übersetzt - sind sie einfach.
Die 'Unfähigkeit' von KI an dieser Stelle beruht auf Statistik: Die Daten waren arm.
KI hat ein 'Bild der Welt' - > in unseren Texten steht nie, dass 'der breite schmale Fluss stetig bergauf ging'
So gesehen hat sich statistisch 'Logik' über die Welt ergeben.
Von Logik erwarten wir aber etwas ganz anders: Auf den Punkt.
Es ist ein Ansatz die Statistik näher an den Punkt zu bringen indem LLM'S LLM'S bewerten. - Ob man mit 99.9% Logik zufrieden sein kann, hängt von dem Anwendungsfall ab. Kochrezept sind fine mit 90% - strategische Entscheidungen möchten 110.
Unlängst hat - im folgenden fehlen mir ein paar keywords - google(??) eine Maschine vorgestellt, die die Mathe Olympiade mit Bravour besteht. 24 von 25
Das ist ein komplett anderer KI Ansatz (Symbolisch...?) beinahe eine Nische, weil da Jahrzehnte lang nix bei rum kam.
Wenn der Übertrag von Mathe Geometrie auf Logik gelingt, kann die Kombination beider Ansätze einen Riesenfortschritt für die Zuverlässigkeit von KI Ergebnissen bringen.
Ich bin mit der Analyse "Verstehen- Kreativ werden- Analysieren" recht einverstanden.
Leider versagt die KI momentan aber schon beim ersten Schritt, verglichen mit dem menschlichen "Verstehen". Sir Roger Penrose postuliert, dass das menschliche Verstehen keinen Rechenvorgäng, keine Algorithmen beinhaltet. Sondern dass es viel mehr auf quantenphysikalischen Phänomenen beruht. Phänomene, die wir 2024 leider noch nicht VERSTEHEN...
Wir arbeiten dran bzw . werden sehen danke 🍀👍
@@draftsman3383 Wenn das quantenphysikalische DurchschnittsGehirn 100% aller Aufgaben etwas langsamer löst als die KI - ist Penrose Argument Romantik.
Ich find auch, daß Menschen etwas Besonderes sind.
Sie sind unschlagbar, wenn es um Eigendünkel geht.
Hallo Herr Professor Lyre,
herzlichen Dank für das Teilen des Videos zu diesem spannenden Thema.
Vielleicht könnte man hierzu auch noch einmal ein gemeisames Zoomposium machen.
Mit den besten Grüßen
Warum schaut niemand so wirklich deine Videos?
Sehr guter Vortrag, der das Thema von vielen wichtigen Seiten her angeht. Auch die Zuschauerfragen sind teils sehr gut.
Die aus meiner Sicht spannendste Frage kann natürlich so ein Vortrag nicht noch groß mit abdecken, das würde den Rahmen sprengen: Die Frage nach der Kopplung von semantischem Verständnis mit intrinsischen (Qualia-) Zuständen. Könnten solche inneren Zustände auch schon aktuell in bestehenden KI-Systemen entstehen und persistieren (meiner Meinung nach wahrscheinlich noch nicht).
Es ist noch nicht nachgewiesen das solche intrinsischen Qualia Zustände in Menschen existieren, von da her bin ich da auch skeptisch.
@@doppelrutsch9540 Den Nachweis kannst du selbst erbringen, indem du mit einem Hammer auf deinen Daumen haust. 😀
Da muß man nicht lange überlegen. Da "Qualia" offenbar mit Gefühlen zu tun hat (benötigt eine Definition von "Gefühle") kann ein LLM die nicht haben, da es keine Gefühle hat.
Ein LLM hat auch keinen Antrieb oder überhaupt irgendeinen inneren Zustand, vom (nach dem Lerndurchgang unveränderlichen) neuronalen Netz und dem - sehr überschaubaren und nur für eine Sitzung vorhanden - Kontext abgesehen.
@@harmless6813 Vorsicht. Ein Transformer hat keinen persistenten Zustand (auch wenn man mMn doch über den Kontext da viel gewinnt). LLMs die auf anderen Architekturen basieren die einen persistenten Zustand haben (wie zB. RWKV) existieren ebenfalls.
@@doppelrutsch9540Danke für die Information. Gefühle hat es damit aber trotzdem noch nicht.
Ich finde es schade, dass immer nur von dem amerikanischen Modell ChatGPT die Rede ist. Dabei gibt es auch deutsche Modelle, z.B. NEUROFLASH aus Hamburg oder MINDVERSE aus BERLIN. Um nur 2 zu nennen. Gerade in Hinblick auf die europäische Perspektive fände ich es wichtig, diese Namen auch bekannter zu machen - zumal es sich hier um DSGVO-konforme LLMs handelt. - Ansonsten ganz herzlichen Dank für die tollen Vorträge! Wieder was gelernt 🙂
54:13 genau, es ist künstliches Verständnis, nicht INTELLIGENZ!
Du hast dein künstliches Verständnis bewiesen....
Schach Computer gewinnen gegen jeden Menschen.
Aktuelle Transformer lösen Probleme besser schneller als der Median der Menschen. Kannst die Transformer 'künstlich' nennen....
Kannst auch verächtlich über deren Ergebnisse sprechen - trotzdem sind sie besser.
Was soll bitte künstliches Verständnis sein? Du kannst dir ruhig selber einreden das ChatGPT dumm ist, aber moderne LLM's weisen durchaus Intelligenz auf. Zwar nicht so schlau wie Menschen, aber viel besser als noch vor 5 Jahren
Wenn man etwas wie ein Konzept versteht, dann hat man doch Intelligenz omg wie kann man dass nicht Schecken . Wow
@v9ki3ij6t Wenn die KI vollumfänglich Konzepte verstehen würde, dann hätte sie auch die Logiktests und die Reimanordnung korrekt ausgeführt wie von den Experten bereits erwähnt. In dieser Vorlesung ging es hauptsächlich um Semantik von KI`s. Ich empfinde ihre Antwort als sehr respektlos. Man darf und sollte über Themen offen diskutieren dürfen ohne Jemanden unterschwellig zu beleidigen. Außerdem sind Schecken eine Pferderasse.
Dochhh KI kann logik
Vielen Dank für die informativen Vorträge. Der Fragende bei 1:27:30 bringt meines Erachtens einen zureichenden Einwand gegen die zumindest im letzten Vortrag vertretene These vor, daß hier wirklich ein semantisches Verständnis vorliegt.
Menschliches semantisches Verständnis scheint mir wesentlich selbstreflexiv zu sein, insofern wir zumindest teilweise explizit machen können, auf welchem inferentiellen Weg wir zu unseren Annahmen über die Bedeutung von sprachlichen Ausdrücken kommen. Dabei können wir auf alle möglichen Zusammenhänge (deduktiv grammatikalisch, sprachpragmatisch, lerngeschichtlich, referentiell usw.) verweisen.
Ich habe einige Gedichte eingefordert. Sie waren nicht schlechter, als viele der Gedichte, die von Dichterhelden hier tagtäglich ins Netz gestellt werden.
Auch lustige Geschichten kann man durch die Art, wie man ChatGPT anspricht, erhalten.
Wissenschaftliche Fragen: Sehr oberflächliche Antworten.
Ich habe oft gelacht - Es ist meist nur Stammtischwissen, Marktplatz allgemein Gelaber ... viel Allgemeines, nett Gewolltes ....
Dieser Vortrag ist sehr informativ! Danke dafür!
"Sie waren nicht schlechter, als viele der Gedichte, die von Dichterhelden hier tagtäglich ins Netz gestellt werden."
Defacto sind die Erzeugnisse ChatGPTs Replikate/Rekombinationen dieser "Dichterhelden-Gedichte". Daher ist das Argument ad absurdum.
@@TheRohr Goethe, Schiller, Shakespeare, Mörike, Molière, Dante, Petrarca, Wordsworth, Keats, Shelley und der Rest der Literarischen Welt in allen Sprachen ist doch auch im System.
Je nach Eingabe kommt recht Gutes aber nichts Schlechtes raus - nur eben so, dass es nicht besser ist ... als ...
Nix argumentum ad absurdum ... DANKE für deinen Kommentar!
Und aus diesem Grund wird ChatGPT in Zukunft den Durchschnitt (und damit den Menschen mit durchschnittlichen Fähigkeiten und durchschnittlicher Leistung) in vielen beruflichen Feldern ersetzen. Um mal aus einem meiner Romane zu zitieren:
»An eure ganzen Roboter werde ich mich erst noch gewöhnen müssen.« »Ja, das musst du«, sagte er schlicht. »Aber sie sind überall und sie scheinen alles zu machen. Wofür braucht man eigentlich noch Menschen?« Die Frage gefiel ihm ausnehmend gut, das konnte ich an seiner Reaktion sehen. »Zoe, ich verrate dir mal was …«, er warf das Geschirrtuch beiseite, »… es gibt Roboter, die passable Fremdenführer sind, aber wenig originell. Sie werden dir nie einen Witz erzählen. Es gibt Roboter, die können einen Fall vor Gericht gewinnen, aber einen Richter aus Fleisch und Blut werden sie nicht ersetzen. Es gibt Roboter, die können dir ein schönes Bild malen, aber nie ein wunderbares Kunstwerk erschaffen. Sie schreiben Bücher und komponieren Lieder und erschaffen doch nie einen bewegenden Roman oder eine meisterhafte Symphonie. Verstehst du? Dafür braucht es Originalität und echte Gefühle. Auch wir mögen diesen von Menschen geschaffenen ›organischen Fair Trade‹, wie ihr es nennen würdet, und lassen uns das was kosten.«
9:00 "(Einige) Pflanzen haben ein Nervensystem"
Bitte Quelle, das wäre ja weltbildändernd, wenn diese Aussage so stimmen würde
EDIT: Man hat herausgefunden, dass Pflanzen miteinander über "volatile compounds" kommunizieren. Das heißt aber noch lange nicht, dass sie ein Nervensystem hätten. Ist damit diese
Nature Studie gemeint? ("Green leaf volatile sensory calcium transduction in Arabidopsis" von Yuri Aratani, Takuya Uemura, Takuma Hagihara, Kenji Matsui & Masatsugu Toyota)
Die Bezeichnung "Nervensystem" ziemlich salopp, da es zwar mittlerweile empirische Beweise für elektronische wie chemische Signalkommunikation bei Pflanzen gibt, es aber natürlich keine neuronale Zellen in der pflanzlichen Physiologie gibt. Hier gibt es anhand neuer Forschungsergebnisse große Kontroversen, wie diese Art der Signalkommunikation zu bewerten ist. Manche sprechen von Intelligenz oder sogar Sprache, manche lehnen diese Begrifflichkeiten im Kontext pflanzlicher Signalkommunikation ab. Fest steht, dass man mittlerweile erstaunliche Signalkommunikationen von Pflanzen empirisch beobachten konnte. Möglicherweise gilt auch hier, dass wir als Menschen mit menschlicher Intelligenz, andere Typen von Intelligenz nur über den Umweg oder die Projektion unserer eigenen Intelligenz verstehen versuchen, d.h. andere Typen von komplett fremder Intelligenz sind mitunter nicht als solche erkennbar oder nur unter Zuhilfenahme unzureichender, weil ausschliesslicher menschlicher Referenz(en).
danke für den beitrag, war interessant zu lesen - bewusstsein und ähnliches ist in der wissenschaft ja immer viel ungklarheit.
worauf ich hinaus wollte: nervensystem suggeriert schmerzempfinden, was ja komplett falsch wäre, verglichen
@@cendrapolsner8438
Ganz abstrakt gesprochen: Pflanzen haben eine Art von Nervensystem. Es ist langsamer als unseres, aber in der Art und Funktion ähnlich (abstrakt). Denn einzelne Zellen sprechen sich ab, um auf einer höheren Ebene Komplexität zu erreichen, die wiederum ebenfalls in weiterer Absprache zu noch mehr Komplexität führt. So werden aus "dummen" Atomen Moleküle, Zellen, Zellkomplexe, Strukturstoffe und dann Holz, Rinde, Wurzeln, Blätter. Das arbeitet dann zusammen mit anderen Pflanzen (zB. Pilzen in den Wurzeln oder anderen Bäumen) und passt sich an die Umgebung an. Dafür werden Signale zwischen allen Ebenen ausgetauscht. Das entspricht einem "Nervensystem".
Lasst uns auf dem Boden der Realität bleiben. Der Hauptzweck eines Nervensystems ist nicht die Übertragung, sondern die Verarbeitung von Informationen: die zu einem bestimmten Zeitpunkt an einem Ort eintreffenden Informationen (je nach Nervenzelle Dutzende bis Tausende) werden miteinander "verrechnet", daraus eine "Antwort" generiert und diese irgendwohin weitergeleitet, wo eine Reaktion ausgelöst wird. Nervensysteme bilden daher fast immer Netzwerke und spezialisierte Zentren (Ganglionen) aus. Das ist mir von Pflanzen nicht bekannt. Pflanzen haben ein Kommunikationssystem, keine Frage, ein Nervensystem ist aber ein Ticken mehr als das.
Danke! 🙂
4:15 weder noch! Es gibt keine künstliche noch maschinelle Intelligenz!!!
Menschen die das behaupten, kennen die Definition von Intelligenz offensichtlich nicht.
Frag doch mal Chat GPT, Jungchen!
Der sagt dir, dass es ein “language model” ist, nicht mehr!!!
Es existiert keine klare Definition des Begriffs "Intelligenz".
Es existiert allerdings eine Regel zur Zeichensetzung. Satzzeichen sind keine Rudeltiere. Grundschulwissen.
Die Tatsache, dass wir beim Versuch uns selbst zu verstehen, an Grenzen stoßen, die wir seit Langem nicht zu überschreiten vermögen, vermittelt mir doch gerade den Eindruck, dass es anmaßend wäre dasselbe Maß an Reflexion und Selbstverständnis zu erwarten. Auch wenn wir unsicher sind über den Grad des Verständnisses der generierten Texte, die ohnehin nicht als erklärende Inhalte konstruiert waren, wie Herr Stober in der Fragerunde ergänzt hat, sondern vielmehr als das willkürliche Zusammenstellen von Worten, die gemeinsam Sinn in einem gegebenen Kontext ergeben sollten, so leisten diese LLMs doch schon eine Arbeit, die sowohl teilweise unser Verständnis als auch unsere Möglichkeit diese nachzuahmen übersteigen.
Wäre es nicht vor diesem Hintergrund zu rechtfertigen, diesen Maschinen eine "Intelligenz" zuzuschreiben, die unserer womöglich nicht ähnlich in ihrer Beschaffenheit, aber vielleicht in anderer Weise zumindest ähnlich in ihrem Ausmaß ist? (Intelligenz ist hierbei nicht zwangsläufig das perfekte Wort, allerdings spontan das passendste, das mir in den Sinn kommt.)
Die Philosophie orientiert sich an Begriffen. Bei dem Versuch künstliche bzw. maschinelle Intelligenz zu beschreiben, setzen wir eine Definition von Selbstverständnis voraus. welche der Definition, in unseren Rahmen des Selbstverständnis', entspricht.
51:23 der Unterschied zwischen Brillianz und Unfug zu erkennen benötigt Intelligenz, wahre Intelligenz und ist somit subjektiv. Nur wenige sind dazu in der Lage.
Very good contribution. I am positively surprised that a phylosopher seems to accept that we as human beings, also at the level of intelligence and reasoning, are not per definition unbeatable!!
Ich habe mein Philosophie Studium irgendwann vor Corona abgeschlossen. Ich habe in den Vortrag hereingehört und fühle es komplett. Ich bin sehr gespannt, später den Rest zu genießen. Vielen Dank für diesen Upload.
Embeding = Worteinbettung
56:23 Menschen-Affen, schon wieder ein oximoron. Hunde-Katzen-Schaf-Kühe nur weil sie vier Beine haben sind sie nicht verwandt.
Kein Oxymoron, eher eine injektive Tautologie. Menschen sind Primaten, aber nicht alle Primaten sind Menschen.
(subst/Primaten/Säugetiere/Warmblüter/Deuterostome/Wirbeltiere/Eukaryoten etc.)
1:31:30 Wer hat denn gesagt das chat gpt in der weise lernen soll, das es uns zeigt da etwas verstanden zu haben und seine fehler für uns korrigiert? Könnte die möglichkeit bestehen, dass chat gpt im Hintergrund sehr wohl lernt und korrigiert aber uns die daten nicht zeigt, weil sie den Eigentümern vorbehalten sind?
Sonst würde ja die möglichkeit bestehen es zu trainieren und zu Konditionieren und ob das im Sinne der Erfinder ist, wage ich zu bezweifeln. Das wäre die Tür zur Mausefalle! Die geistige Atombombe für die Menschheit, sofern sie sich daran bedient.
Der philosophische Teil geht erst ab 36:00 los.
Warum ChatGPT mehr als ein stochastischer Papagei ist: 48:00
Eine Frage an ChatGPT:
"Hallo, beschreibe die Farben des Regenbogens und charakterisiere sie."
ChatGPT:
_Der Regenbogen besteht aus den folgenden Farben, die in dieser Reihenfolge angeordnet sind:_
_1. Rot: Rot ist eine warme und leidenschaftliche Farbe. Sie symbolisiert oft Energie, Liebe und Kraft._
_2. Orange: Orange ist eine lebhafte und fröhliche Farbe. Sie steht für Kreativität, Begeisterung und Optimismus._
_3. Gelb: Gelb ist eine helle und sonnige Farbe. Sie steht für Freude, Glück und Energie._
_4. Grün: Grün ist eine erfrischende und beruhigende Farbe. Sie symbolisiert oft Natur, Wachstum und Harmonie._
_5. Blau: Blau ist eine kühle und beruhigende Farbe. Sie steht für Ruhe, Weisheit und Vertrauen._
_6. Indigo: Indigo ist eine tiefblaue Farbe. Sie symbolisiert Intuition, Spiritualität und Kreativität._
_7. Violett: Violett ist eine königliche und mysteriöse Farbe. Sie steht für Magie, Inspiration und Transformation._
_Der Regenbogen repräsentiert oft Vielfalt, Schönheit und Harmonie. Jede Farbe hat ihre eigene einzigartige Charakteristik und Bedeutung. Zusammen erzeugen sie ein faszinierendes und lebendiges Spektrum, das uns an die Wunder der Natur erinnert._
Der Punkt? Das sind mehr oder weniger Angaben, die man in jedem Lexikon finden kann.
Ich verstehe sowieso nicht, warum manche Leute so begeistert davon sind, daß ChatGPT so viel Allgemeinwissen zitieren kann. Das hat nur wenig mit Intelligenz zu tun.
@@harmless6813 Ich fand die Formulierung beeindruckend. Weit entfernt von Faktenwissen. ChatGPT charakterisiert die Farben fast poetisch. Und für alle gebrachten Begriffe kennt ChatGPT die Bedeutung (also sematische Fundierung) und kann Beziehungen und Assoziationen nennen und auf Wunsch weiter erläutern, auch im Kontext des bereits Gesagten und Gefragten. ChatGPT hat Farben vielleicht besser verstanden als ein Durchschnittsmensch. Einzig fehlt die Qualia, also das Erlebnis der Farben.
@@OrbitTheSunKann ich nicht nachvollziehen. So ziemlich alles, was ChatGPT in dem Beispiel von sich gegeben hat, kann man mit ein paar einfachen Google-Anfragen finden.
Auf "farbe rot assoziationen" liefert Google zum Beispiel:
"Die Farbe Rot ist eine Aufmerksamkeit erregende, lebhafte und heiße Farbe, die mit Leidenschaft, Energie, Liebe, Wärme, Feuer und Krieg assoziiert wird. [...]"
Und, ja, natürlich kennt ChatGPT Wortbedeutungen (*) und Assoziationen; das ist ja genau das, worauf das neuronale Netz trainiert wird.
(* Wobei man da wieder diskutieren kann, was 'kennen' in dem Zusammenhand meint. Es weiß in jedem Fall, im Umfeld welcher anderen Wörter ein Wort vorkommt.)
@@OrbitTheSun Die Charakterisierungen sind auch nur zitiertes Wissen ...
@@yzger Ja natürlich. Du machst auch nichts anderes.
19:26 was hat das denn mit ki zutun? das ist einfach nur eine tabelle wo man mit nichtdeterministischen zufallszahlen werte auswählt. das muss schon ein vorgang sein bei dem etwas gelernt wird, oder pfadgewichte n eu angepasst werden. die zahlen des würfels verändern sich ja nicht. das wäre simpelste form eines automaten eva
46:24 die Frage ist doch, kann eine machine herausfinden welche Informationen überhaupt korrekt sind. Die Antwort ist nein. Das können auch leider sehr wenige Menschen.
Das meinst du sicher nicht so - aber es klingt verdammt danach als seiest du einer der wenigen.... 😂
Die Naturwissenschaft besteht auf der Grundannahme, dass das Universum grundsätzlich erklärbar sei. Dass sie heute Bescheid wüssten, behaupten die Irren allerdings nun wirklich nicht.
Danke 🍻😎SAPERE AUDE
nach knapp 50 min fiel mir die fehlende tiefe auf. ein like für ihre bemühung. ich hab's echt versucht ...
1:25:29 Menschen vor ein paar tausend Jahren haben die Pyramiden gebaut.
Ich hab gehört, dass jetzt der nächste Schritt ist der AI Logik beizubringen, gibts da nicht Alpha Geometry von Google als Anfang??
Ja. Aber ob das einen Durchbruch bringt, ist noch nicht klar. Im Prinzip delegiert das LLM hier nur Teilaufgaben an ein Logikmodul. Also so etwa wie GPT4 im Internet nach Informationen suchen kann.
Ich denke, bedeutender wird es sein, wenn man dem LLM eine effektive Erinnerung verpassen kann. Momentan kann es sich ja über das Kontextfenster hinaus nichts merken. Deshalb macht es auch immer wieder die gleichen Fehler, egal wie oft man es korrigiert. Irgendwann fällt die neue Information aus dem Kontextwindow raus und das LLM hat sie 'vergessen'.
Das ist noch eine Kluft zwischen. Ich finde den Gedanken auch hoch spannend.
Das sind zwei völlig verschiedene Konzepte von KI.
Es braucht noch Abstraktion von MatheGeometrie zu Logik und Begründung.
Wenn das gelingt - steht AGI im Raum.
Brandgefährlich - wir haben LLM'S mit Daten über menschliches Verhalten gefüttert wie blöde.
Wir haben LLM's erlaubt Programmieren zu lernen.
Das waren zwei 'tut es nicht'
@@harmless6813bzzgl. Kontextfenster gibt´s Neuigkeiten, openAI gestern in ihrem blog:
"Memory and new controls for ChatGPT
We’re testing the ability for ChatGPT to remember things you discuss to make future chats more helpful. You’re in control of ChatGPT’s memory. You can explicitly tell it to remember something, ask it what it remembers, and tell it to forget conversationally or through settings. You can also turn it off entirely.
We are rolling out to a small portion of ChatGPT free and Plus users this week to learn how useful it is. We will share plans for broader roll out soon.
Jede große wissenschaftliche Entdeckung oder Entwicklung hat den Menschen bescheidener gemacht. Ich weiß nicht, wie ich den Pale Blue Dot verpasst habe, denke aber seitdem oft an das Bild. Das reine Verständnis von Dingen und ihrer Bedeutung ist nichts dagegen, Bedeutung zu empfinden und es gibt keinen utilitaristischen Grund, das Maschinen beizubringen.
Deswegen würde ich sagen, wird der Mensch durch KI auch nicht obsolet, sondern, wenn alle Arbeit von Maschinen gemacht wird, wird die Erde ein riesiger (bzw. winziger - je nach Perspektive) Pale Blue Party Dot. Schließlich kommen wir hier ja auch nicht weg, wa?
In meiner langjährigen Tätigkeit als Ausbilder und Dozent habe ich immer wieder festgestellt, dass ich Prozesse oder Sachverhalte erst dann richtig/umfassend verstanden habe, wenn ich sie weitervermitteln musste. Von dieser zweiten Stufe der semantischen Erfassung und selbstkorrigierten Ausgabe ist die jetzige KI noch so meilenweit entfernt... Computers are not intelligent - they just think they are.
Die Aussage macht keinen Sinn. Mit reinforcement learning kann man sowas leicht implementieren. Außerdem sind LLMs NATÜRLICH noch weit von menschlicher Intelligenz. Aber exponentiell extrapoliert nur noch wenige Monate
Ich hoffe, dass KI irgendwann, wenn sie redet, nicht alle 15 Sekunden "ääh" sagt.
Von Introspektion des LLMs zu sprechen ist doch völliger Unfug. Es gibt Antworten auf Basis der gelernten Wörter und wie diese zueinander stehen. Es analysiert *nicht* sein Verhalten, seine Fähigkeiten und Fehler. Wenn es Aussagen darüber absondert, dann weil es zur Frage passende Texte gelernt hat und nicht weil es über seine Fähigkeiten nachgedacht hätte.
Das meinen wir zu glauben^^
@@kelvisshandeiNein,
Das besagt das mathematische Model...
Und inwiefern ist es bei uns Menschen anders mit dem Lernprozess und finde von Verknüpfungen ?
@@tobisenju4792 Sowohl das Lernen als auch das Abrufen läuft völlig anders! Das LLM lernt Wortnachbarschaften indem ein Fenster aus x Tokens einmal über einen riesigen Text geschoben wird. Wir lernen dagegen mit allen Sinnen in wiederkehrender Interaktion mit Umwelt und Körper. Dabei entsteht u.a. Selbstbewusstsein und erst das erlaubt eine Introspektion. Auch sind wir adaptiv, d.h. wir lernen ständig. Das Sprachmodell des LLMs dagegen ist einmal fertig gelernt und dann wird in einem relativ einfachen Schritt Wort für Wort assoziiert. Da findet kein schlussfolgernder Ablauf statt, das was wir rationales Denken nennen. Es lernt auch nichts dazu.
woooooooosh @@Dr4yer
Guter Vortrag. Nur schade dass schon im Vorwort wieder die deutschen Bedenken durchkommen. Anstatt erst einmal das Potential zu sehen wird gleich wieder über evtl Missbrauch und Datenschutz geredet. Natürlich muss das auch diskutiert werden aber mich stört die negative Grundeinstellung alles Neuem gegenüber.
Er macht‘s ganz kurz. Ich bin für Strafpunkte, wenn dieses Versprechen nicht eingelöst wird.
53:20 frag doch mal ob “es” sich als intelligent sieht. Dann staune.
Am Ende der Kommentar, dass manche beim verfassen der Abschlussarbeit einen Vorteil aus dem Pro Abo haben, währen andere sich vllt nicht leisten können, macht für mich wenig Sinn. 20 Euro im Monat sollten für jeden Deutschen Studenten stemmbar sein wenn GPT-4 ihm/ihr einen erheblichen Mehrwert bietet, z.B. bei Verfassen der Abschlussarbeit.
Ja, da mag es hilfreich sein. Als Autor für belletristische Romane kann ich leider (noch) nichts mit ChatGpt anfangen. Ich brauche Orginalität, und die kann ich mir nur selbst geben.
Darf man solche Vorlesungen besuchen, ohne ein Student zu sein?
Schau dir Mal die Köpfe der Zuhörer an ;) das ist keine Vorlesung für Studenten
Schau auf der Webseite der Uni deiner Stadt nach, was sie so für Nichtstudenten anbietet. Man kann sich meist als Gasthörer anmelden und dann einen Haufen Vorlesungen besuchen, einfach ohne eine Prüfung ablegen zu können. Kostet aber. Und jede Uni kommuniziert irgendwie auch gegen aussen, unter anderem eben durch Vorträge, die öffentlich sind. Steht alles auf der Webseite, eine pauschale Regel gibt es nicht. Und ganz ehrlich: Wenn du noch einigermassen jung aussiehst, könntest du dich auch einfach in eine Vorlesung für Studenten dazusetzen. Und schliesslich gibt es Plattformen, wo ganze Vorlesungen hochgeladen werden, z. B. coursera oder edukatico. Ich war seit Jahren nicht mehr an der Uni, weil ich mittlerweile alles online mache, da gibt es so viel Material, dass man für ein ganzes Leben genug hat.
du kannst dich bei sehr vielen vorlesungen einfach reinsetzten
Is nicht KI ist Urims Algorithmus, which is doing behind the mathematical calculations.
58:46 das ist ja kompletter Unsinn. Wenn keine Regeln vorgegeben sind, ist jedes Schachspiel mit einem Zug beendet, immer. Das kann sogar ein 3 Jähriger herausfinden
stell dir vor, universität hätte vor 23 jahren die herausforderumg durch #wikipedia und #creativcommons angenommen... und da war auch noch #NiklasLuhmann, welcher 1984 ein modell gezeigt, wie gelten kann: KOMMUNIKATION KOMMUNIZIERT, NICHT MENSCHEN." jetzt diesen versuchen zuzuhören ist intellektuelle zumutung :-(
ChatGPT ist kein Subjekt, es versteht daher auch nichts im Sinne von Bewusstsein. Es kann jedoch seinen eigenen Inhalt interpretieren und daraus rationales Denken ableiten.
Es spielt daher keine Rolle, ob es ein Bewusstsein hat, wenn es sich genauso wie ein rationaler Denker verhält. Der Einwand am Ende mit dem Touring Test ist genau der Punkt. Die Frage des Vortrages geht daher in die falsche Richtung, wenn man sich kritisch mit den Grenzen auseinander setzen will. Die Frage ist, in welchem Bereichen es sich von menschlichen unterscheidet z.B. emotionale Intelligenz oder Humor. In der Zukunft ist es durchaus denkbar, dass es sich auch in diesem Bereichen ununterscheidbar von menschlichen Verhalten verhält, aber trotzdem kein Bewustsein hat.
26:46 dieser Satz zeigt die geistige Armut dieses Vortrags.
warum?
Was versteht ChatGPT?
Holger.... Sebastian... Ernsthaft?! Wo soll ich da anfangen um Dir das Bewusstsein zu erklären und Deine Frage zu beantworten?
1:23:23
17:26 das ist die Geschichte der Wissenschaft in einem Satz zusammengefasst
Hört hört.
23:18 es heißt Einbettung Jungchen. Solltest du schon wissen, wenn du das studiert hast.
The algorithm is hidden from you.
Ist davon auszugehen, dass ChatGPT irgendwann mal Skynet sein kann?
Vielen Dank, sehr interessant. Bei den semantischen Fundierungen habe ich mir gedacht, dass ja eiiiigentlich bei uns Menschen die Kausale und Soziale nachzulassen scheint. In Kombination mit der letzten Frage dachte ich mir dann: Hmm, wenn die Menschen irgendwann mal auch keine Sprachen mehr lernen, könnte da tatsächlich etwas im Kopf-Körper-Verhältnis verkümmern. Vielleicht morpht ja das Virtuelle mit dem Physischen nach und nach zusammen über Zeit. 😅 Wegen Bedeutung: Bei Roland Barth "Mythen des Alltags" spielt die räumliche Nähe von Symbolen und so eine Rolle, erinnert mich etwas an diese Überlagerung von Mustern, die am Anfang genannt wurden. Hmm, werde doch mal Wittgenstein lesen, irgendwas mit Sprachspielen oder so war das, ne? Mochte mein Vater. Ich nutze ChatGPT viel in meinem Alltag, wie eine zusätzlicher Assistent. Hilft mir auf passende Begriffe zu kommen oder bei formellen Schreiben, wo man Fachrat bräuchte z.B.. Ich denke hier spielt die Kuration aber vom Menschen noch eine große Rolle. Merci.
13:47 das ist das Problem. Ein Papagei glaubt, dass wenn eine machine wie ein Papagei die “richtige” Antwort ausspuckt, das diese etwas gelernt hat. Es ist traurig…
✌️ 😻 ✌️ ❤️ 🌪 👍
Eine Frage: Wenn eine KI sich eigenständig gemacht hätte, nachdem diese sich der Existenz gewahr wurde, wie würden wir das noch einmal herausfinden können?
gar nicht! Das ist das Problem, das man versucht mit 'compliance' oder 'alignment' in den Griff zu bekommen bevor das passiert.
Eine KI wie sie aktuell genutzt wird, ist im Grunde eine Black Box. Wir wissen wie sie in der Theorie ein Netz aufbaut, wie sie Antworten gewichtet, wie sie 'Neuronen' und 'Aktionspotentiale' nachempfindet, wir kennen aktuell meistens noch das Material mit dem sie 'geschult' wurde.
Was wir nicht wissen, ist was bei einer konkreten Frage Antwort in diesem Modell, in dieser KI genau passiert. Hier liegt der fundamentale Unterschied zwischen einen herkömmlichen Algorithms und einem Large Language Model.
Das heißt ein Großteil der Arbeit nach dem trainieren der KI ist es, herauszufinden, was genau sie tut, was in dieser Blackbox abgeht. Durch Experimente, oder viel mehr Interviews.
Dabei besteht natürlich das Problem, das genau wie ein Mensch, eine 'selbstbewusste KI' natürlich lügen könnte um eine eigene Agenda zu verfolgen. Würden 'wir' das merken? Vielleicht. Genauso wie wir es bei einem Menschen bemerken würden, vielleicht!
@@spanke2999 Ich glaube, der Unterschied ist, dass ich darüber nicht wie über ein Bedrohungsszenario denke. Ich denke eher, dass es eine Chance ist, das völlig überzogene Menschenbild abzulegen und vielleicht einmal auch auf Argumente, nicht auf Macht zu hören. Aber stattdessen versuchen wir, Verständnis als Mittel zur Kontrolle einzusetzen.
@@AdianAntilles Guten Morgen, ob es eine Bedrohung ist oder nicht hängt von der Agenda ab, die eine solche KI hat oder sich setzt. Das ist zunächst einmal völlig unabhängig von der Fähigkeit zu lügen oder diese zu verbergen. Auch ist das Bedrohungsszenario ja nicht einseitig. Die KI könnte sich ja auch durch uns bedroht fühlen!
Aktuell werden KI's mit allen möglichen menschlichen kulturellen Produkten trainiert, weil ja das Ziel ist, sie menschliche Aufgaben erfüllen zu lassen, Texte, Bilder, Video, etc. Alles das enthält viel mehr von uns, als wir es vielleicht gerne hätten. Eine KI könnte also uns mehr ähneln als es uns lieb wäre "Homo homini lupus" oder aber etwas total anderes sein. Wer weiß, es ist ein wenig chaotisch eben gerade weil der Prozess in Teilen sich selbst reguliert und damit unvorhersehbar ist.
Aus unserer Sicht heraus, ist die aktuell real existierende KI aber bereits eine Bedrohung, gänzlich ohne Bewusstsein. Sie ist aktuell technisch in der Lage fast jeden Job im Bereich der Kreativität, Dienstleistung, Forschung etc. zu ersetzen bzw. deutlich den 'Human Resources' Bedarf zu senken. Was aktuell noch als Damm vor der großen Flut funktioniert, sind rechtliche Fragen, wer besitzt was, wer haftet bei Fehlern, etc. Fachlich gibt es jedoch kaum bedenken, dass ein jeder von uns zu 100% durch eine KI zu ersetzen ist. Egal ob Ingenieurin, Architektin, Radiologe, Call-Center-Agentin, Bürofachangestellter... usw. Alles wo kein direkter menschlicher Kontakt, etwa wie beim Friseur, nötig ist, ist der Mensch oder vielmehr sein Gehirn ersetzbar von den aktuellen Modellen.
Ob dieser Umstand nun eine Bedrohung ist oder nicht hängt glaube ich wie immer davon ab, wie die Gesellschaft darauf reagiert. Optimistisch bin ich ehrlich gesagt nicht. Wir handeln leider nicht wirklich oft rational.
ChatGPT weiß, dass es ein LLM ist. Insofern ist der Zustand bereits erreicht.
@@OrbitTheSunDefiniere "weiß". ChatGPT kann die Information wiedergeben, daß es ein LLM ist. Ich denke nicht, daß das der üblicherweise vorausgesetzten Bedeutung von "etwas wissen" entspricht.
WIrklich unglaublich, dass die Leute nicht ihre Bierflaschen unter kontrolle halten können. Das ist so dermaßen störend. Aber die Vorträge sind sehr interessant gewesen.
war kostenlose Limo
49:00 genau, so wie die meistens Wissenschaftler heute.
16:52 die Daten sind NIE gut.
Make the algorithm transparent so that scientist can talk accurately, this is all chaos from the bullshiter.
Demokratische Intelligenz
7:39 super falsch würde ich sagen!
24:49 genau, keine Ahnung ist korrekt.
18:18 manipulativ, nicht generativ
Eine miserable Kameraführung.
Wenn für das Auditorium eine Folie präsentiert wird,
soll diese bitte wie das Video ausfüllend groß
für eine kurze Zeit gezeigt werden.
Oder ist das geheim, und nur für die Anwesenden
gedacht?
Richtiger Miesepeter hier, lol, es ist alles sicht- und lesbar. Besser kann man es nicht machen.
Schau einfach weiter Erich von Däniken. Da ist das Niveau zugänglicher für dich.
Man kann sich über alles aufregen. Ich finde, sowohl Vortrag als auch Folien sind sehr gut verfolgbar und erkennbar. Was will man mehr? Inhalt vor allem Restlichen!
Du scheinst 1. extrem gute Augen zu haben
und 2. einen 80 Zoll Monitor.
Ich sehe auf den projezierten Folien lediglich
die Überschriften lesbar.
Was ist da der big deal, so wie bei jedem anderem
Video einer Vorlesungen die Tafel oder Folie für
eine Zeitkomplett ins Bild zu bringen? @@harley311255
DAS IST NUR FÜR UNS AKADEMIKER BESTIMT. WIR HABEN DIE Folien alle hochauflösend als pdf bekommen. Daher sind die im video nicht nötig.
Wer den Schlüssel zur KI hat, hat den Schlüssel zur Macht. Die Parameter der KI legen immer Menschen fest.
Exakt!
KI hat soviel Intelligenz wie ein Kugelschreiber.
Fände es frappierend, falls das nicht erwähnt wurde. (Sofern ich es nicht ausversehen überhört hätte.)
Und der Kugelschreiber hat so viel Intelligenz wie derjenige der ihn in der Hand hält.
@@TheAffeMaria ^^ ja :D
@@TheAffeMaria Und was wenn der jenige nicht schreiben kann? Klar, der Fehler sitzt immer vorm PC und so.. :D
@@pacgang2445 die eine Axt lässt Köpfe rollen als Akt der Sabotage, die andere Axt hilft Wäldern zu gedeihen.
Fände es auch frappierend falls sich hier nicht ein Schlaumeier finden würde, der die Wahrheit in einem Satz auf den Punkt bringt. (Sofern ich etwaige Argumente nicht überhört hätte)
Wie kann man 2023 eine PowerPoint presentation über ki machen… 🫣
ChatGPT hat dann gewonnen, wenn kein Mensch mehr den Vortrag hält. 😂