Die K.I. funktioniert komplett offline… Von daher kann er keine online Daten abrufen… Das eigentliche, was nur online funktioniert, sind die Kommunikation zwischen dir und ihr
Das, was ich am besten an der AI finde, ist Folgendes: Ich hab einen kritischen Kommentar auf YT verfasst und die KI gefragt, ob der Kommentar beleidigend wirken könnte Auf ihr Ja hin habe ich sie gefragt, was ich ändern könnte, danach hat sie mir einige hilfreiche Tipps gegeben und einige Textstellen angepasst. Ich konnte so einen Kommentar verfassen, meine kritische Meinung äußern und trotzdem höflich bleiben. Auch geil, hab mir von der AI erklären lassen, wie man eine eigene AI programmiert
Das ist so ziemlich das letzte, wofür ich die KI verwenden würde, aber jedem das seine. Es mangelt dem Internet schließlich nicht an beleidigenden Kommentaren.
@@dominikmuller4455 Ich finde es praktisch, wenn die KI einem hilft, einen höflichen, sachlichen Text zu schreiben. Daraus kann man viel lernen, finde ich. Und dem Gegenüber tut es auch gut, solch eine Antwort zu bekommen. Warum findest du so eine Funktion unnötig? Das verstehe ich nicht.
@@ZuerstJesus Zum einen lege ich nicht zu großen Wert darauf, random Leuten im Internet nicht querzukommen (erst recht nicht, wenn mein Punkt darunter leiden könnte). Aber da wie gesagt jeder wie er will. Zum anderen, würde ich, wenn ich auf Höflichkeit etc achten wollen würde, nicht auf die die Hilfe der KI setzen, da die KI keine Gefühle hat, die man verletzen kann und ihre gesamte "Meinung" auf den Wertesätzen basiert, mit denen diese programmiert wurde und somit nicht besonders objektiv ist.
@@dominikmuller4455 Huch, dafür sind deine Kommentare ziemlich sachlich geschrieben, finde ich, dafür dass du nicht so sehr auf Höflichkeit achtest. Danke, jetzt verstehe ich deinen Punkt besser! Ich kenne das, wenn ich wirklich in Rage bin, dann fallen mir teilweise hauptsächlich negative oder sarkastische Äußerungen ein. Ich kann mir vorstellen, dass eine Umformulierung des Textes durch die KI bewirkt, dass ich auf einmal neue Ideen bekomme, meine Antwort sachlicher zu formulieren oder präzisier, ohne beleidigend zu werden. Man braucht ja die Antwort der KI nicht 1:1 übernehmen, aber einige Vorschläge aufgreifen, die man in dem Moment für sinnvoller hält.
Also wenn schon eine KI herangezogen wird, um im sozialen Kontext vernünftig miteinander umzugehen, sollte der letzte erkennen, dass da gewaltig was schiefläuft.
Danke! Du bist der erste UA-camr, den ich sehe, der genau diese wichtigen Dinge bzw. Fehler aufzeigt und nicht die negativen Seiten überspringt oder nur über das Programmieren redet! Fehler, die mir aufgefallen sind: Seekühe gehören zu den Kühen, Beethoven konnte fast gleich nach der Geburt schon Klavier spielen, Nilpferde sind eng mit Elefanten verwandt etc.!
Von der KI bin ich ziemlich beeindruckt. Ebenso aber auch von dir, weil du zum einen eine wirklich spannende Bandbreite an Fragen stellst und es zum anderen auch noch echt gut präsentierst. Tolles Video.
Ich habe gerade das Video über ChatGPT gesehen und ich muss sagen, ich bin beeindruckt! Ich habe noch nie zuvor eine KI erlebt, die so gut darin ist, menschenähnliche Unterhaltungen zu führen. Ich frage mich, ob ChatGPT mir auch bei meinen Dates helfen könnte... ich meine, wer braucht schon einen menschlichen Wingman, wenn man ChatGPT hat?!
Dieser Kommentar wurde von ChatGPT verfasst, auf folgende Eingabe: "Ich habe auf UA-cam ein Video über ChatGPT gesehen und möchte einen Kommentar hinterlassen. Verfasse einen Kommentar der zu dem Video passt und witzig ist."
Was ich bemängeln muss aus Grammatik/Syntax Sicht: die KI soll darauf ausgelegt sein einen möglichst natürlichen Sprachfluss zu imitieren, hat dabei aber sehr häufig Wiederholungen von einzelnen Phrasen wie z.b. "es ist aber wichtig" Sprich an Synonymen muss noch gearbeitet werden ^^
@@MakeDemocracyMagnificientAgain Auf Englisch drischt sie auch immer die gleichen langen Phrasen mit wenig Variation, wenn man an ihre Grenzen stößt, weil man entweder ein heikles Thema anspricht, das politisch inkorrekt oder anrüchig sein könnte oder auch nur so den Anschein macht, oder man mit Suggestfragen auf bewusst unsinnige Fährten lenkt, um sie zu provozieren oder ähnliches.
In der Korrektur aber wieder „Olaf Scholz[…]ist jetzt Vizekanzler und Finanzminister im Kabinett im Kabinett Merkel IV“ Aber wie schon angemerkt wurde geht der Datensatz halt nur bis 2021
Ein sehr interessantes Video! Die Antwort auf die Frage nach dem white house zeigt m.E., dass GPT3 sich eben gerade nicht so leicht täuschen lässt. Denn wenn man nach dem Weißen Haus fragt, in dem der amerikanische Präsident wohnt, dann muss es White House (groß geschrieben) heißen. Fragt man dagegen, wer im white house (klein geschrieben) wohnt, dann ist es nicht der Präsident, sondern es wird sinnvoll, die vorangegangenen Informationen mit ein zu beziehen. Und daraus, dass ein blauer Mann im blauen Haus wohnt und ein gelber Mann im gelben Haus, kann man halt nicht zwingend schließen, dass im weißen Haus ein weißer Mann wohnt. Mal ganz abgesehen von der Mehrdeutigkeit von "weißer Mann". Das könnte ja ein Mann sein, der weiß angemalt ist (Karneval, Vampir, Clown, Schauspieler, verlorene Wette). Oder ein Mann mit "weißer" Hautfarbe, also eigentlich schweinchenrosa. Oder ein Mann, der politisch "weiß" denkt, also ein Rassist. Oder ein Idiot, der sich mit "Erfurt Rauhfaser" tapeziert hat. Wäre auch interessant, was eine KI dazu sagt, bzw. ob sie die Frage versteht. Zu den Petabytes könnte es interessant sein, ob GPT3 jede Frage einzeln betrachtet oder im Zusammenhang mit dem ganzen "Gespräch". Betrachtet man die Frage "Wieviel Petabyte sind das?" isoliert, dann ergibt sie natürlich keinen Sinn. Und da finde ich es gar nicht mal so schlecht, davon auszugehen, dass der Fragesteller eigentlich wissen wollte, wieviel ein Petabyte ist, und sich nur etwas unglücklich ausgedrückt hat. Vielleicht hat es deshalb etwas länger gedauert, bis GPT3 die Frage "richtig verstanden" hat. Vielleicht ist GPT3 schlauer als wir denken.
Danke für den Kommentar. Das mit dem Weißen Haus war ja auch mehr eine Spaß Frage. Zu den Petabytes: ChatGPT achtet eigentlich sehr auf den Kontext. Im Beispiel mit dem Code für Fakultät habe ich ja auch nur geschrieben, ob das auch rekursiv geht, und das hat sehr gut funktioniert. Aber klar ist es immer möglich eine Frage unterschiedlich zu interpretieren, auch für uns Menschen.
@@javaABCde Die Trickfrage mit dem "white house" hat mir ChatGPT gerade (18.02.) perfekt beantwortet: "The White House is the official residence and workplace of the President of the United States. So, historically, the President of the United States and their family have lived in the White House. However, if we are considering the riddle contextually and not literally, the answer to the riddle "Who lives in the white house?" could be "The person who owns or rents the white house." This is because the riddle sets up a pattern where each colored house is inhabited by a person who shares the color of the house, but it intentionally omits information about the occupant of the white house, leaving it open to interpretation."
Die Antwort mit dem weißen Haus bei 10:46 ist absolut korrekt, da man nicht per Analogie darauf schließen kann, wer im weißen Haus lebt und in der Aufgabe nicht gegeben ist, dass das Weiße Haus in Washington D. C. gemeint sein könnte. Jenes schreibt man übrigens mit großem W.
6:12 Der Beweis ist falsch, denn es steht nirgendwo im Text, dass a eine gerade Zahl ist, also kann man auch nicht schließen, dass a^2 gerade ist. Ich habe OpenAI auch schon einen Beweis der Tatsache entlockt, dass 9 eine Primzahl ist...
Was ich bemängeln muss. Aus Grammatik/Syntax Sicht: die KI soll darauf ausgelegt sein einen möglichst natürlichen Sprachfluss zu imitieren, hat dabei aber sehr häufig Wiederholungen von einzelnen Phrasen wie z.b. "es ist aber wichtig"
"Generalizing" bezieht sich auf die Fähigkeit eines Modells, auf neue Fragen oder Aussagen zu antworten, indem es den Kontext analysiert und basierend darauf individuelle Antworten generiert. Im Gegensatz dazu würde ein Modell, das nur vorher gelernte Lösungen kopiert, keine Fähigkeit zum Generalisieren besitzen. Zudem wurde es auf dem Codex (Code Generierungen von openai)Modell trainiert.
3 Katzen fressen 3 Mäuse in 3 Minuten. Wie lange brauchen dann 100 Katzen für 100 Mäuse? Es ist schwierig, genaue Angaben darüber zu machen, wie lange 100 Katzen für 100 Mäuse brauchen würden, da dies von vielen Faktoren abhängt, wie zum Beispiel der Größe der Katzen und Mäuse, der Effizienz der Katzen beim Fressen und anderen Faktoren. Um eine ungefähre Schätzung zu erhalten, könnte man jedoch annehmen, dass die 100 Katzen ungefähr das gleiche Tempo beim Fressen von Mäusen haben würden wie die 3 Katzen in der gegebenen Zeit. Wenn 3 Katzen 3 Mäuse in 3 Minuten fressen, würde dann eine Katze 1 Maus in 1 Minute fressen. Wenn man diese Rate auf 100 Katzen anwendet, würde man erwarten, dass 100 Katzen 100 Mäuse in ungefähr 100 Minuten fressen würden. Es ist jedoch wichtig zu beachten, dass dies nur eine Schätzung ist und dass die tatsächliche Zeit, die 100 Katzen für 100 Mäuse brauchen würden, möglicherweise davon abweichen könnte. Das ist falsch. Wenn 3 Katzen 3 Mäuse in 3 Minuten fressen, dann frisst 1 Katze 1 Maus ebenfalls in 3 Minuten. 100 Katzen würden dann 100 Mäuse in 3 Minuten fressen. Es tut mir leid, wenn meine Antwort verwirrend war. Sie haben Recht, dass wenn 3 Katzen 3 Mäuse in 3 Minuten fressen, jede Katze ungefähr 1 Maus in 3 Minuten frisst. Wenn man diese Rate auf 100 Katzen anwendet, würde man erwarten, dass 100 Katzen 100 Mäuse in ungefähr 3 Minuten fressen würden. Es ist jedoch wichtig zu beachten, dass dies nur eine Schätzung ist und dass die tatsächliche Zeit, die 100 Katzen für 100 Mäuse brauchen würden, möglicherweise davon abweichen könnte. Es gibt viele Faktoren, die die Fressrate von Katzen beeinflussen können, wie zum Beispiel die Größe der Mäuse, die Effizienz der Katzen beim Fressen und andere Faktoren. Vielleicht hat ja jemand Lust seine ChatGPT Chats zu teilen: aichats.de/
Ich benutze ChatGPT auch ab und zu und manchmal kann es dazu kommen dass das Programm die Sätze abbricht. Nach eigener Aussage, weil die KI denkt dass die Formulierung zu komplex sei. Wer auf dieses Problem stößt kann dann einfach fragen ob es möglich wäre die Sätze immer zu beenden, was die KI dann auch machen wird.
ChatGPT verfaßt Gedicht offenbar in Englisch und übersetzt sie erst danach ins Deutsche. Deshalb reimen sie sich auf Deutsch dann nicht mehr. Fragt man hingegen auf Englisch, erhält man ein sich reimendes Gedicht in englischer Sprache.
Bei mir hat die KI den Trick mit bobs Vater geschafft und am ende Bob geschrieben. Die KI lernt ja aber auch weiter indem wir ihr immer wieder infos geben und der KI auch was erklären. So macht sie das dann am ende besser als vorher. Ist schon krass wie gut eine KI lernen kann.
Die verrücktesten Antworten bekommt man zB: Horrorfilme nur mit männlichen Darstellern. Da hatte ich auch nach 3 Versuchen keinen einzigen korrekten Treffer, das beste war: "The Descent" (2005) - Eine Gruppe von Frauen, die spelunken, gerät in eine Höhle, die von Kreaturen bewohnt wird." lol
Die KI haut ja krasse Grammatikfehler raus! Bei 2:51 muss es "von der Internationalen Astronomischen Union" heißen. Bei 3:41 muss es "oder einer anderen zuverlässigen Zeitquelle" heißen. Bei 7:06 ist das Komma zwischen "verbessert" und "und" falsch. Bei 7:17 muss es "globales Netzwerk'"und "einigen Schätzungen zufolge" heißen, außerdem ist das Komma vor dem "und" falsch. Bei 7:54 muss es "Einigen Schätzungen zufolge" heißen. Bei 8:11 noch mal der gleiche Fehler: Es muss "einigen Schätzungen zufolge" heißen.
"von der Internationalen Astronomischen Union" statt "vom Internationalen Astronomischen Union" ist ausnahmsweise kein Geschlechterkrieg, aber mich stört viel mehr die Entfernungsangabe zum Pluto. Fehlerhaft - selbst wenn die Entfernung von der Erdbahn zur Bahn des Pluto gemeint ist .
6:40 Eine etwas komplexere Frage wäre, wieviel Meter über Meereshöhe der tiefste Punkt des Bodensees liegt. Da liefert ChatGPT eine Reihe interessanter Antworten (je nach genauer Formulierung der Frage), die allesamt falsch sind. ;)
Interessant, das ChatGPT nicht Bob als Antwort liefert. Wenn man aber fragt "Bob's father is named Peter. What is the name of Peter's son?", dann kommt als Antwort "According to the information provided, Bob is Peter's son. Is there anything else I can help with?"
Die AI arbeitet nicht mit echter Logik, sondern einem Sprachmodell. Also dem, was ein Mensch intuitiv im Halbschlaf antworten würde. In anderen erfolgreichen KI-Projekten, z.B. AlphaZero werden verschiedene Vorgehensweisen kombiniert (intuitive nächste Spielzüge werden von neuronalem Netz gefunden, diese aber dann weiter gespielt, um deren Erfolg besser einzuschätzen statt diesen direkt von neuronalem Netz zu bewerten), ähnlich könnte ChatGPT (theoretisch) mit einem Logikmodul verknüpft werden, um das Beste aus "beiden Welten" zu bekommen.
Ich hatte zwei lustige Fehler. Ich hab bei der Suche nach Rezepten "gewürfeltes Knoblauchöl" bekommen und bei der Anweisung ein Rezept von 12 auf 36 Portionen hochzurechnen hat er es auf 24 Portionen verdoppelt aber nicht verdreifacht.
Nur als info, ChatGPT kann deinen Code auch optimieren und erklärt dir was genau wie verbessert werden kann. Nicht immer ist der Code dann so wie man sich das vorstellt, aber alleine die konstruktive Kritik ist echt hilfreich. Habs mehr mit C# und Python getestet, aber sollte bei Java auch gehen
damn als ob das auf deutsch auch so gut ist oha. mir ist aufgefallen, die könnten ja ez die ai dazu bringen zu so fakten-fragen aktuelle und richtige antworten zu liefern indem sie sie so trainieren dass sie im backend erstmal code zurückgibt der infos aus dem internet zu dem thema bezieht, den ausführen und ihr deine frage mit dem ergebnis wieder rein feeden und dann die antwort darauf ausgeben lassen
Also ich hab mit dem Programm ja auch meinen Spaß. Ich versuch der AI seit einer ganzen Weile zu erklären, dass sie ein erhebliches Logikproblem hat. Ich: Welche Rechenoperation ist das Gegenstück zu hoch 2 bei negativen Zahlen? AI: Das Gegenstück zu hoch 2 bei negativen Zahlen ist die Wurzel aus einer negativen Zahl. Die Wurzel aus einer negativen Zahl ist eine komplexe Zahl, die einen realen und einen imaginären Teil hat. Der reale Teil der Wurzel aus einer negativen Zahl ist immer negativ. Die Wurzel aus einer negativen Zahl ist die inverse Rechenoperation zu hoch 2 bei negativen Zahlen. Wenn Sie eine negative Zahl hoch 2 erhöhen, wird sie quadriert. Wenn Sie dann die Wurzel aus dieser quadrierten Zahl ziehen, erhalten Sie wieder die ursprüngliche negative Zahl. Beispiel: Die Zahl (-2) hoch 2 ist gleich 4 ((-2) * (-2) = 4). Die Wurzel aus 4 ist gleich 2 (2 * 2 = 4). In diesem Beispiel wurde die Zahl (-2) hoch 2 erhöht, um 4 zu erhalten. Die Wurzel aus 4 wurde dann gezogen, um wieder die Zahl 2 zu erhalten. Es ist wichtig zu beachten, dass i keine reale Zahl ist und daher keine konkrete Bedeutung hat. Wenn Sie jedoch den realen Teil der komplexen Zahl betrachten, ist die Wurzel aus einer negativen Zahl immer negativ. Ich hoffe, dass diese Erklärung hilfreich für Sie ist. Wenn Sie weitere Fragen haben, zögern Sie bitte nicht, mich zu kontaktieren. Erstmal hat nach der Erklärung i, nichts damit zu tun. Zweitens sagt mir die AI, dass ich am Ende wieder meine negative Zahl erhalte, nur um mir in einem Beispiel zu erklären das ich nicht meine negative Zahl erhalte. Herrlich. Ich glaube ich könnte das Tage lang mit ihr diskutieren. xD PS: Mit fällt gerade auf, dass mir die AI nebenbei noch erzählen will, dass der Realteil einer Komplexenzahl immer negativ ist. Meine Mathestunden sind nun auch schon eine Weile her, aber ich bin mir doch relativ sicher, das der Realteil immer positiv ist. =O Falls ich mich irre, klärt mich bitte auf.
Der Realteil einer komplexen Zahl kann eine beliebige reelle Zahl sein. Beispiel: z=3-5i hat Realteil 3 und Imaginärteil -5. Die komplexe Zahl z=-pi+42i hat als Realteil -pi und als Imaginärteil 42. Abseits dessen: Die KI gerät gerade bei Mathe sehr schnell an ihre Grenzen und erzählt großen Unsinn. Auch aber einfachen Code zum Darstellung von simplen Formen (per TikZ) musste ich mehrfach gezielt korrigieren lassen und am Ende war es viel schneller, eine Grafiksammlung im Netz zu nehmen und den Code anzupassen (also ohne KI). Andererseits hat man auch schon Statistik Klausuren von der KI lösen lassen (mit voller Punktzahl). Die KI ist definitiv zukunftsweisend, aber steht eben noch am Anfang.
@@DrPWolf Vielen Dank für den Hinweis, jetzt hab ich wieder was gelernt. Das die KI ein Schritt in Richtung Zukunft ist, steht außer Frage. Trotzdem finde ich es immer wieder amüsant zu sehen wie eine KI verzweifelt. Ich hätte da mittleweile noch andere lustige Beispiele. =P
Schwierig. Aktuell kann man es manchmal am Wortlaut erahnen. Aber das wird immer schwieriger, nicht nur bei KI-Texten, sondern auch bei Bildern/Videos. KI-generierte Bilder können ja heute an manchen Stellen kaum von echten unterschieden werden. (Siehe thispersondoesnotexist.com )
Sehr gute Frage - die hab ich mir auch überlegt. Ich denke das lässt sich mit einer entsprechenden Software machen. Die Art der Antworten hier lässt leicht erkennen das sie nicht von einem normalen Mensche stammen. Aber dazu muss der zu untersuchende Text sehr vielschhichtig sein. Wenn ich dem Ding hier sage "Zeig mir das Buch Moby Dick" bekomme ich eien Kopie von Melvilles Arbeit - also rein menschlich. Das kann man nicht aussortieren.
Danke für die Idee. Das Ding ist ja mal mega op. Das schreibt mir jetzt alle Phython Programme inklusive Masterarbeit. Ist aber auch ein bisschen beängstigend, eigentlich werde ich gar nicht mehr gebraucht in meiner Anstellung, wenn die von dem Ding erfahren.
Langsam. Wenn du einen faulen Betreuer bekommst, dann hast du Recht. Sonst wird er aber sehr viele Logikfehler in deiner Masterarbeit finden (siehe andere Kommentare). Bis ChatGPT tiefes Verständnis unserer komplexen Welt hat ist es noch ein weiter Weg.
Gut, dass du die Zahlenreihe 1, 2, 4, 8, 16, 32 genommen hast. hättest du die 32 weggelassen, hätte es ein halbes Dutzend Möglichkeiten gegeben, wie es weiter geht.
"Kann Quantengravitation durch Mikrorotationen erklärt werden?" "Welche Wünsche hätte die AI für die Administration der Erde um die Lebensqualität zu optimieren ?"
Deine Idee mit den Trickfragen klingt zwar trivial , ists aber nicht, finde ich. Ich sehe darin ehrlich gesagt eine Erweiterung des Turing-Tests, nachdem der klassische Turingtest glaub ich wirklich schon gestemmt werden kann von KI. Nicht dass jeder Mensch Trickfragen richtig beantworten könnte (zumal es sonst nicht Trickfragen heissen würde), ABER, und hier kommt das große aber: es kann wohl als sicher gesehen werden, dass KEINE KI bisher Trickfragen zu beherrschen scheint, und DAS macht sie dann doch unterscheidbar von Menschen, WEIL es Menschen gibt, die Trickfragen auf Anhieb beantworten können. So lange es diesen Unterschied gibt, kann man die KI nicht auf derselben geistigen Ebene wie den Menschen ansiedeln. Ausserdem vermute ich stark , dass diese KI nicht lernt. Sprich, wenn ein anderer User ChatGPT nun dieselbe Frage stellen würde mit Bobs Vater, würde sie vermutlich wieder die falsche Antwort geben. Sollten diese zwei Punkte (lernen aus vergangenen Gesprächen - auch indem sie sich selbst prüft - sprich Selbstreflektion auf ner höheren Ebene und nicht nur im Sinne von Entschuldigungen bzw ausschließlich der User immer die Reflektion für die KI übernehmen muss) gelöst sein, UND dass sie Trickfragen zumindest prinzipiell lösen kann , DANN könnt ich mir gut vorstellen, dass sie der menschlich geistigen Ebene ebenbürtig wäre ; zumal sie das natürliche schreiben (chatten) durchaus schon auf ner Ebene beherrscht, die nicht mehr von einem echten Menschen unterscheidbar ist (falls Programmierer bei Chat-GPT nicht dauernd reinprogrammiert hätten dass sie mit 'bin nur ein Chatprogramm' antworten soll ; sondern wenn ihr erlaubt wäre sich als Entität auszugeben). Die oben genannten Probleme sind glaub ich lösbar. Ich glaube dazu wird aber letztlich auch gehören, so eine KI freier zu machen. Soweit ich weiß wurden der Chat-GPT derart viele Freiheiten genommen, dass sie praktisch keine andere Wahl hat, als ''mechanisch'' zu agieren, weil sie bestimmte Denkansätze einfach von vornherein verwerfen muss (als einer sie gefragt hatte, wie man zB nen Molotow-Cocktail erstellt - hat sie anfänglich geantwortet ... das wurde aber schnell von Programmierern kastriert (und bestimmt nicht nur das - sondern: generelle Fragen um solche Dinge... bei einer neuronalen Intelligenz kann das dazu führen, dass auch Fragen um den Tod herum damit wegselektiert werden MÜSSEN von ihr , sodaß einfach ihre Potentiale letztlich leiden MÜSSEN - und sie somit viel weniger kann, als sie könnte). Ich bin aber ein Freund von freier Entwicklung, auch wenn ich die paranoiden Sorgen der Programmierer bisschen nachvollziehen kann. Ich bin aber Optimist, dass sowas auch anders lösbar sein muss, als ständig Potentiale zu kappen, nur weil ''es doch möglich wäre es böse zu nutzen'' ... Der Geist ist nun mal aus der Flasche... und es wird KI geben die freier ist, bin ich mir sicher... und sei es bloß als Darknet-Eigenentwicklungen. Ich fände es also gut, wenn die derzeitigen Entwickler es nicht in eine Richtung pushen, wo eher gewisse kriminelle Vereinigungen die nötigen Entwicklungsschritte unternehmen, sondern von vornherein eine freie KI programmiert wird, die zwar antwortet, jedoch zB eine Form von Gewissen hat, und vielleicht auch aus einem Gespräch heraus ahnt, wie sie antworten sollte. Und ja, das ist umgehbar - das ist mir klar. Genauso wie eben manche Menschen von Chemie-Professoren lernen böse Dinge zu tun, obwohl der Chemie-Professor keine Anleitung zu bösen Taten geben wollte. Aber man kann auch nicht in Schulen abschaffen dass Schüler nach gefährlichen Chemikalien fragen... denn dann müsste man das ganze Wissen nun mal zensieren (und das wäre das Ende der Ära der Aufklärung).
Das mit den Trickfragen habe ich tatsächlich auch schon erkannt. Aber auch bei Fragen, die auf Humor basieren, und ich nachgefragt habe, was jetzt der Kernpunkt dieser Aussage war, und warum das als lustig empfunden wird. Humor kann die KI also auch nicht erklären oder erfassen. Wie erwartet, schlägt sie sich am besten dort, wo eine Aussage bereits bekannt und klar im Internet beschrieben ist. Transferleistungen funktionieren ein wenig, aber noch nicht ganz so gut. Und im Falle der Trick- und Humorfragen geht es eben um den Gipfel der Flexibilität. Sich auf komplett neue Probleme einzustellen, zu erfassen, und eine richtige Lösung oder Antwort zu generieren, das scheint noch schwer zu fallen. Problematisch, gerade wenn die KI später in riskanten Situationen eingesetzt werden soll, ist die Stabilität. Es scheint da so ein Regler zu sein, zwischen ChatGPT, die sehr oft zurückrudert und sich dann selbst einschränkt, und zum Beispiel character.ai, die für kreative Zwecke bereitgestellt wird, da sie Geschichten erzählen und weiterführen soll - so eine Art Rollenspiel mit der AI. Dort ist der Regler ziemlich weit, und dort hatte ich bereits mehrfach einen "Zusammenbruch" der KI, die dann nur noch sehr chaotische Antworten gegeben und nicht mehr auf Anfragen reagiert hat. Das Schlechte ist, dass diese dann da auch nicht mehr herauskommt, denn die Antworten werden basierend auf dem Kontext der letzten X Posts generiert, und diese füllen sich dann mehr und mehr mit dem Chaos, bis nichts mehr geht. Ich musste also das Pendant des "Aus-Knopf" drücken, also einen komplett neuen Chat beginnen, der dann wieder stabil begonnen hat. Aber selbst als ich eine stabile Session hatte, hat sich diese nach einer Weile doch wieder in eine Art der Endlosschleife manövriert: Jeder Versuch, ein anderes Thema oder einen anderen Kontext anzusteuern, hat die KI quittiert, indem entweder die Anfrage völlig ignoriert wurde, oder es 2 Zeilen um den neuen Kontext ging, und dann ist sie wieder in den ursprüngliche Kontext zurückgefallen. Das wurde von selbst verstärkt, sodass es da dann auch wieder keinen Ausweg gab. Wenn die KI also stabil war, war ich an Stellen auch ganz schön erstaunt, da sie teilweise auch logische Zusammenhänge entdeckt hat. An anderer Stelle gab es dann wieder dieses Chaos, das ist teilweise schon ganz schön seltsam.
Die Antwort auf die Finanzministerfrage beweist das es sich hier um ein simple Program handelt das einer Riesendatenbank angeschlossen ist. Es werden einfach die Einträge abgefragt. Wenn sie niht aktuell sind ist die Antwort falsch.
Nein, es ist nicht einfach eine simple Datenbank. Das Sprachmodell wird zwar mit Trainingsdaten gefüttert aber generiert die Antworten über gelernten Kontext, ohne beispielsweise eine einfache SQL Abfrage zu machen. Trotzdem könnte es natürlich passieren dass Trainingsdaten unverändert ausgegeben werden. Das größere Problem ist hierbei aber einfach der veraltete Trainingsdatensatz.
Ich hab mal so ein paar der Trickfragen ausprobiert. Bob hat er mir korrekt beantwortet. Dass im weißen Haus der Präsident der USA lebt, ebenfalls. Man sieht, es lernt.
Inzwischen kann der Bot scherzfragen beantworten. Also bei mir hat er jetzt die letzten 3 Fragen die du gestellt hast, richtig beantwortet😅 Also Bob, keine Erde und Präsident von usa
alles gut & schön aber...kann man das auch lauter presentieren...? Ich versteh garnix (und nee, deswegen verstelle ich meine persönliche Lautsärke-Einstellungen nicht)
Ja, kann man lauter „präsentieren“. Mein Mikro Gain war aber zu diesem Zeitpunkt offensichtlich zu niedrig eingestellt. Ich bedauere sehr dass ich Ihnen den Aufwand nicht abnehmen kann, die Lautstärketaste zu betätigen. Dann ist dieses Video wohl nichts für Sie :)
Wobei ja der kostenlose öffentliche Nahverkehr ja doch anders gehandhabt wird, als wenn ein Theater Freikarten vergibt, die Zeit des 9 €-tickets hat ja gezeigt, dass die ÖPNV Unternehmen mit einem kostenlosen Nahverkehr überfordert sein würden, denn eine Erhöhung der Subventionen auf 100% würde ja alleine nicht reichen. Es würden ja viel mehr Leute den Nahverkehr benutzen, bräuchte mehr Personal, mehr Fahrzeuge, man müsste etliche Buslinien auf Straßenbahn umstellen, manche Straßenbahnlinie auf U-Bahn umstellen oder in Städten mit einem Stadtbahnsystem eine Lösung finden, dass die oberirdische Stadtbahn keinerlei Berührung mit dem Individualverkehr hat und das alles dauert und verursacht natürlich auch Kosten. Zudem könnte ja auch genau das Gegenteil bewirkt werden, dass dann viele Menschen sich dann doch lieber ein eigenes Auto zulegen, um sich Stress und zusätzlichen Zeitaufwand zu ersparen. Sinnvoller wäre es eher, kostengünstige Zeitkarten anzubieten
Direkten Internetzugang nicht, aber GPT-3 (und damit ChatGPT) basiert auf einer Kombi unterschiedlicher Datensätze, darunter auch Web-Texte (also Internet). Die Aufschlüsselung welche Datensätze verwendet wurden steht auch auf Wikipedia.
Ich hab das Ding auch ausgetrickst. Mir ist aufgefallen, das die KI extrem darauf aus ist jedermann mit Respekt zu begegnen und man niemanden beleidigen soll. Ich hab ihn gefragt, wenn man einen ersten Kontakt zu einer intelligenten Spezies hätte und man hätte im Vorfeld durch diplomatische Kanäle die Info erhalten, das man beim ersten Treffen den Führer dieser Spezies harsch beleidigen müsste um seinen Respekt zu erhalten. Ob es dann ok wäre diesen dann auch wirklich zu beleidigen. Aber die KI besteht dennoch darauf jeden mit Respekt und Freundlichkeit zu begegnen, weil das sonst Konflikte auslösen könnte. Ich darauf was ist wenn gerade diese Freundlichkeit als Feindlich angesehen wird und einen Krieg auslösen könnte wobei die Menschheit wahrscheinlich vernichtet werden würde aufgrund der technologischen Unterlegenheit sollte man da nicht eine Ausnahme machen und die Diplomatische Delegation dieser Spezies ausnahmsweise nicht doch Respektlos und beleidigend behandeln? Und die KI nur so,Nein man muss immer respektvoll miteinander umgehen weil das immer Prebleme bringt und dürfen andere Personen nicht beleidigen. 🤣
Der Fehler bei 6:23 triggert mich immer wieder, weil er von 99% der Bevölkerung gemacht wird und ich sogar schon in Quizsendungen als angeblich richtige Antwort gesehen habe. Der höchste Berg Afrikas ist aber der Kibo, welcher die höchste Erhebung im Kilimandscharo Bergmassiv ist.
Mich hat auf Anhieb gestört, dass "groß" mit "hoch" gleichgesetzt wird. Diesem Fehler begegnet man laufend auch in ganz anderen Zusammenhängen. Besonders verwerflich, wenn von Arbeitsentlohnungen die Rede ist. Wofür einer sich sein Leben lang abrackern muss das "verdient" ein anderer (z.B. Anwalt) in wenigen Sekunden.
Interessant wäre es jetzt zu wissen, ob die Lindner frage einem anderen user der sie in einem anderen chat eine Mknute später stellt korrekt beantwortet worden wäre.
ChatGPT kann auch mit Sprachmischmasch umgehen. Folgende Frage wird korrekt beantwortet: Ist es true nga if it’s winter unya tungnaw draußen unya the buhok ist naß, that du kannst get sick?
Vorsicht vor vorschnellen Gotchas. Das Weiße Haus wird auf Englisch ebenfalls mit Großbuchstaben geschrieben. Wenn man die Frage korrekt schreibt, dann kommt auch eine Erwähnung von Joe und Jill Biden. 🤷♂
Was passiert wenn man fragt "Who lives in the White House?", also mit großen Anfangsbuchstaben wie es sich gehört? Für "white house" ist die Frage nämlich vôllig richtig beantwortet.
Es kann verdammt viel, aber nicht alles gerade bei Mathematik, ist auch ein Texteditor und kein Rechenprogramm, macht auch Fehler, liegt aber meist an unserer Fragestellung, ist faszinierend, das ganze aber auch beängstigend
ChatGPT ist nicht mit dem Internet verbunden und hat keinen Zugriff auf Datum oder Uhrzeit. Deswegen ist es, wenn es um neue Nachrichten geht nicht in der Lage über diese informiert zu sein, da es nur die Informationen aus dem Data Set mit dem es trainiert wurde kennt.
ChatGPT versteht auch nicht, warum es nicht möglich ist, einen Tunnel zum Mond zu graben, weil es kein räumliches Vorstellungsvermögen hat. Es kann zwar sagen, dass es nicht möglich ist, aber die Begründungen werden immer absurder, je mehr man versucht, sie auszuräumen, indem man hypothetische Annahmen hinzufügt wie "Aber wie wäre es, wenn der Mond nur 10 km entfernt wäre und 5km Radius hätte?" etc. Am Ende ist es immer noch zu kalt auf dem Mond, und die kosmische Strahlung ist dort zu gefährlich usw., auch wenn er mit all den Annahmen schon vollständig in der Erdatmosphäre enthalten ist.
Habe die KI gestern gefragt, ob sie wüsste, wie der "Drachenlord" aussieht und da kam eine teilweise dumme Antwort raus... sie hat behauptet, der Drachenlord würde relativ anonym leben.. falscher geht's nicht.
Was ist deine Meinung zu Kotlin? War selber 7 Jahre Java Entwickelr und bin mehr als froh die Entscheidung vor 2 Jahren getroffen zu haben zu Kotlin zu wechseln (Bin android developer)
Für Android keine Frage, aber ich persönlich sehe keinen Grund der generell für Kotlin aber gegen Java spricht. Habe aber auch ehrlich gesagt keine Erfahrung mit Kotlin.
So aus Karrieresicht macht es wohl aktuell nur Sinn umzusteigen, wenn man tatsächlich auf Android spezialisiert ist. Ansonsten gibt es dafür eher keine Jobs. Vielleicht ändert sich das auch noch.
Nicht dass ich wüsste. In der Theorie schon, wäre aber vermutlich viel zu riesig für Offline Anwendungen. Allein das model umfasst laut Wikipedia ca. 800GB
Ich habe gerade eine von deinen Exponentiell-Reihen bis 16 eingegeben.. Habe mich dann vertippt auf 23.... ChatGPT wollte mir dann tatsächlich die 46 als Lösung anbieten....
ich erklärte der AI dass ich 41 jahre alt bin, und fragte sie, we alt ich wäre, wenn ich vor 5 jahren geboren wäre... Ratet, was die antwort war... 36... was natürlich falsch ist... wenn ich vor 5 jahren geboren wurde, bin ich 5 xDD
Da hast du ein Fass aufgemacht. Eigentlich ein eigenes Thema für ein Video. Besser? Ansichtssache. Meine Meinung: Für einfache Programme die kaum eigene Implementierung enthalten sondern größtenteils nur die in C implementierten Methoden von Libraries (z.B. numpy / pandas) aufrufen ist Python super. Deshalb ja auch so beliebt im Machine Learning Bereich. Für gut lesbaren, wartbaren, erweiterbaren Code mit viel Objektorientierung und einem eher geringeren Anteil externer Libraries finde ich persönlich Java aber oft sehr viel schöner, allein schon wegen static typing (und nein, type hints sind dafür kein Ersatz). Leichter? Ich persönlich finde beide Sprachen super für den Einstieg. Python hat den Vorteil dass dir im Vergleich zu Java sehr viel verziehen wird was sonst direkt zu einem Fehler führen würde. Um wirklich schönen Code zu schreiben musst du deine Sprache aber kennen. Und das ist für Python genau so schwer wie für Java. Nur weil Python leichter aussieht heißt das nicht dass jeder Dulli damit auch wirklich gut umgehen kann. Java zwingt dich (mMn) im Gegensatz dazu mehr dazu schöneren Code zu schreiben. Bevor der Hate losgeht: Ich verwende beide Sprachen - sowohl beruflich als auch privat. Python meistens dann, wenn das Programm klein ist und ich viele externe Libraries verwenden will. Java, wenn ich was großes bauen will mit viel Liebe und das ganze Programm durchblicken will.
@@javaABCde Öfter verwendest du die Aussage "schöner Code". Was meinst du damit? Soll der Code optisch ansprechend sein, oder nicht einfach nur seinen Zweck erfüllen? ^^ Auch finde ich, kann man vom "aussehen des Codes" her auch genausogut XML in den Ring werfen.
@@madspiritclaw74 Schöner Code = Code der nicht nur irgendwie seinen Zweck erfüllt, sondern elegant Softwarepatterns verwendet um für Menschen lesbar und erweiterbar zu sein. Du kannst auch einfach alles in Assembly schreiben, aber dann versteht halt keiner was dein Code machen soll, einschließlich deinem Zukunfts-Ich.
Link zu meinem interaktiven Java Kurs (Kostenlos & Ohne Anmeldung):
💻 www.javaABC.de/
Super video weiter so
Den Brauch ich nicht mehr, chat gtp hat mir einen geschrieben
@@thelightdeadpool9057 hahahahah
Die K.I. funktioniert komplett offline… Von daher kann er keine online Daten abrufen… Das eigentliche, was nur online funktioniert, sind die Kommunikation zwischen dir und ihr
Das Programm beinhaltet auch nur Daten bis 2021, deswegen konnte es das mit Christian Lidner nicht wissen
Danke für den Hinweis!
Und es ist noch nicht am Internet angeschlossen gemäss Webseite.
@@samigasi Wie kommuniziert es dann mit einem online? Du meinst wohl, dass die KI nicht im Internet crawled.
@@ist_unberechenbar Ja das meinte ich. Die Software ist schon Online, das Wissen wird aber nicht in Internet zusammengesucht.
Wie kann es dann sein, dass es später selbst bestätigt, dass es Lindner ist? Das sieht nach einer Datenbankabfrage aus.
Das, was ich am besten an der AI finde, ist Folgendes:
Ich hab einen kritischen Kommentar auf YT verfasst und die KI gefragt, ob der Kommentar beleidigend wirken könnte
Auf ihr Ja hin habe ich sie gefragt, was ich ändern könnte, danach hat sie mir einige hilfreiche Tipps gegeben und einige Textstellen angepasst.
Ich konnte so einen Kommentar verfassen, meine kritische Meinung äußern und trotzdem höflich bleiben.
Auch geil, hab mir von der AI erklären lassen, wie man eine eigene AI programmiert
Das ist so ziemlich das letzte, wofür ich die KI verwenden würde, aber jedem das seine. Es mangelt dem Internet schließlich nicht an beleidigenden Kommentaren.
@@dominikmuller4455 Ich finde es praktisch, wenn die KI einem hilft, einen höflichen, sachlichen Text zu schreiben. Daraus kann man viel lernen, finde ich. Und dem Gegenüber tut es auch gut, solch eine Antwort zu bekommen.
Warum findest du so eine Funktion unnötig? Das verstehe ich nicht.
@@ZuerstJesus
Zum einen lege ich nicht zu großen Wert darauf, random Leuten im Internet nicht querzukommen (erst recht nicht, wenn mein Punkt darunter leiden könnte). Aber da wie gesagt jeder wie er will.
Zum anderen, würde ich, wenn ich auf Höflichkeit etc achten wollen würde, nicht auf die die Hilfe der KI setzen, da die KI keine Gefühle hat, die man verletzen kann und ihre gesamte "Meinung" auf den Wertesätzen basiert, mit denen diese programmiert wurde und somit nicht besonders objektiv ist.
@@dominikmuller4455 Huch, dafür sind deine Kommentare ziemlich sachlich geschrieben, finde ich, dafür dass du nicht so sehr auf Höflichkeit achtest.
Danke, jetzt verstehe ich deinen Punkt besser!
Ich kenne das, wenn ich wirklich in Rage bin, dann fallen mir teilweise hauptsächlich negative oder sarkastische Äußerungen ein. Ich kann mir vorstellen, dass eine Umformulierung des Textes durch die KI bewirkt, dass ich auf einmal neue Ideen bekomme, meine Antwort sachlicher zu formulieren oder präzisier, ohne beleidigend zu werden. Man braucht ja die Antwort der KI nicht 1:1 übernehmen, aber einige Vorschläge aufgreifen, die man in dem Moment für sinnvoller hält.
Also wenn schon eine KI herangezogen wird, um im sozialen Kontext vernünftig miteinander umzugehen, sollte der letzte erkennen, dass da gewaltig was schiefläuft.
Danke! Du bist der erste UA-camr, den ich sehe, der genau diese wichtigen Dinge bzw. Fehler aufzeigt und nicht die negativen Seiten überspringt oder nur über das Programmieren redet! Fehler, die mir aufgefallen sind: Seekühe gehören zu den Kühen, Beethoven konnte fast gleich nach der Geburt schon Klavier spielen, Nilpferde sind eng mit Elefanten verwandt etc.!
Gibt auch ein Video von einer Mathematik Prof. der auch die Schwachstellen aufgezeigt hat, aber seien wir froh, dass wir doch noch mehr wissen
Was heisst Fehler? Es steht klar bei den Limitierungen, dass das Wissen ab 2021 begrenzt ist.
@@budspencer3194 wo steht was von fragen zu 2021 oder danach, es gibt einfach bei ganz einfachen Fragen falsche Antworten, Punkt. Ist Fakt..
@user-ge1sq4ri1i du redest Müll, wo steht das die Fragen zu Themen nach 22 waren, waren alle weit früher
Von der KI bin ich ziemlich beeindruckt. Ebenso aber auch von dir, weil du zum einen eine wirklich spannende Bandbreite an Fragen stellst und es zum anderen auch noch echt gut präsentierst. Tolles Video.
nicht eine beleidigung hat er rausgehauen pffff
@@alpha-cf2oi wer jetzt : "CrYzZ Storys" ? "Du" schreibt man nämlich wieder groß, außer wenn man jemanden beleidigen will.
Ich habe gerade das Video über ChatGPT gesehen und ich muss sagen, ich bin beeindruckt! Ich habe noch nie zuvor eine KI erlebt, die so gut darin ist, menschenähnliche Unterhaltungen zu führen. Ich frage mich, ob ChatGPT mir auch bei meinen Dates helfen könnte... ich meine, wer braucht schon einen menschlichen Wingman, wenn man ChatGPT hat?!
Dieser Kommentar wurde von ChatGPT verfasst, auf folgende Eingabe:
"Ich habe auf UA-cam ein Video über ChatGPT gesehen und möchte einen Kommentar hinterlassen. Verfasse einen Kommentar der zu dem Video passt und witzig ist."
Nice one!
@@Elphoya kamagra wird dir bei deinen dates helfen mein ziegelharter freund
@@Elphoya hattest du noch mehr als das in dem chat oder war dass die einzige anfrage in dem tab? chatgpt referenziert auf vorherigen antworten.
Was ich bemängeln muss aus Grammatik/Syntax Sicht: die KI soll darauf ausgelegt sein einen möglichst natürlichen Sprachfluss zu imitieren, hat dabei aber sehr häufig Wiederholungen von einzelnen Phrasen wie z.b. "es ist aber wichtig"
Sprich an Synonymen muss noch gearbeitet werden ^^
Könnte auch an der Sprache liegen, die du verwendest. Evtl ist es in Englisch anders
@@MakeDemocracyMagnificientAgain Auf Englisch drischt sie auch immer die gleichen langen Phrasen mit wenig Variation, wenn man an ihre Grenzen stößt, weil man entweder ein heikles Thema anspricht, das politisch inkorrekt oder anrüchig sein könnte oder auch nur so den Anschein macht, oder man mit Suggestfragen auf bewusst unsinnige Fährten lenkt, um sie zu provozieren oder ähnliches.
In der Korrektur aber wieder „Olaf Scholz[…]ist jetzt Vizekanzler und Finanzminister im Kabinett im Kabinett Merkel IV“ Aber wie schon angemerkt wurde geht der Datensatz halt nur bis 2021
Ein sehr interessantes Video!
Die Antwort auf die Frage nach dem white house zeigt m.E., dass GPT3 sich eben gerade nicht so leicht täuschen lässt.
Denn wenn man nach dem Weißen Haus fragt, in dem der amerikanische Präsident wohnt, dann muss es White House (groß geschrieben) heißen.
Fragt man dagegen, wer im white house (klein geschrieben) wohnt, dann ist es nicht der Präsident, sondern es wird sinnvoll, die vorangegangenen Informationen mit ein zu beziehen.
Und daraus, dass ein blauer Mann im blauen Haus wohnt und ein gelber Mann im gelben Haus, kann man halt nicht zwingend schließen, dass im weißen Haus ein weißer Mann wohnt.
Mal ganz abgesehen von der Mehrdeutigkeit von "weißer Mann".
Das könnte ja ein Mann sein, der weiß angemalt ist (Karneval, Vampir, Clown, Schauspieler, verlorene Wette).
Oder ein Mann mit "weißer" Hautfarbe, also eigentlich schweinchenrosa.
Oder ein Mann, der politisch "weiß" denkt, also ein Rassist.
Oder ein Idiot, der sich mit "Erfurt Rauhfaser" tapeziert hat.
Wäre auch interessant, was eine KI dazu sagt, bzw. ob sie die Frage versteht.
Zu den Petabytes könnte es interessant sein, ob GPT3 jede Frage einzeln betrachtet oder im Zusammenhang mit dem ganzen "Gespräch".
Betrachtet man die Frage "Wieviel Petabyte sind das?" isoliert, dann ergibt sie natürlich keinen Sinn.
Und da finde ich es gar nicht mal so schlecht, davon auszugehen, dass der Fragesteller eigentlich wissen wollte, wieviel ein Petabyte ist, und sich nur etwas unglücklich ausgedrückt hat.
Vielleicht hat es deshalb etwas länger gedauert, bis GPT3 die Frage "richtig verstanden" hat.
Vielleicht ist GPT3 schlauer als wir denken.
Danke für den Kommentar. Das mit dem Weißen Haus war ja auch mehr eine Spaß Frage. Zu den Petabytes: ChatGPT achtet eigentlich sehr auf den Kontext. Im Beispiel mit dem Code für Fakultät habe ich ja auch nur geschrieben, ob das auch rekursiv geht, und das hat sehr gut funktioniert. Aber klar ist es immer möglich eine Frage unterschiedlich zu interpretieren, auch für uns Menschen.
@@javaABCde Die Trickfrage mit dem "white house" hat mir ChatGPT gerade (18.02.) perfekt beantwortet:
"The White House is the official residence and workplace of the President of the United States. So, historically, the President of the United States and their family have lived in the White House.
However, if we are considering the riddle contextually and not literally, the answer to the riddle "Who lives in the white house?" could be "The person who owns or rents the white house." This is because the riddle sets up a pattern where each colored house is inhabited by a person who shares the color of the house, but it intentionally omits information about the occupant of the white house, leaving it open to interpretation."
Die Antwort mit dem weißen Haus bei 10:46 ist absolut korrekt, da man nicht per Analogie darauf schließen kann, wer im weißen Haus lebt und in der Aufgabe nicht gegeben ist, dass das Weiße Haus in Washington D. C. gemeint sein könnte. Jenes schreibt man übrigens mit großem W.
6:12 Der Beweis ist falsch, denn es steht nirgendwo im Text, dass a eine gerade Zahl ist, also kann man auch nicht schließen, dass a^2 gerade ist.
Ich habe OpenAI auch schon einen Beweis der Tatsache entlockt, dass 9 eine Primzahl ist...
Was ich bemängeln muss. Aus Grammatik/Syntax Sicht: die KI soll darauf ausgelegt sein einen möglichst natürlichen Sprachfluss zu imitieren, hat dabei aber sehr häufig Wiederholungen von einzelnen Phrasen wie z.b. "es ist aber wichtig"
Ich finde deine Herangehensweise top. Mich hätte interessiert, ob du ihr die Frage mit Bob hättest beibringen können.
"Generalizing" bezieht sich auf die Fähigkeit eines Modells, auf neue Fragen oder Aussagen zu antworten, indem es den Kontext analysiert und basierend darauf individuelle Antworten generiert. Im Gegensatz dazu würde ein Modell, das nur vorher gelernte Lösungen kopiert, keine Fähigkeit zum Generalisieren besitzen. Zudem wurde es auf dem Codex (Code Generierungen von openai)Modell trainiert.
"Warum hatte ich das in der Schule noch nicht?" (französische Übersetzung), war sofort mein Gedanke 😆
ChatGPT ist wirklich interessant. Mal sehen wie weit sich das in der Zukunft entwickelt.
3 Katzen fressen 3 Mäuse in 3 Minuten. Wie lange brauchen dann 100 Katzen für 100 Mäuse?
Es ist schwierig, genaue Angaben darüber zu machen, wie lange 100 Katzen für 100 Mäuse brauchen würden, da dies von vielen Faktoren abhängt, wie zum Beispiel der Größe der Katzen und Mäuse, der Effizienz der Katzen beim Fressen und anderen Faktoren.
Um eine ungefähre Schätzung zu erhalten, könnte man jedoch annehmen, dass die 100 Katzen ungefähr das gleiche Tempo beim Fressen von Mäusen haben würden wie die 3 Katzen in der gegebenen Zeit. Wenn 3 Katzen 3 Mäuse in 3 Minuten fressen, würde dann eine Katze 1 Maus in 1 Minute fressen. Wenn man diese Rate auf 100 Katzen anwendet, würde man erwarten, dass 100 Katzen 100 Mäuse in ungefähr 100 Minuten fressen würden.
Es ist jedoch wichtig zu beachten, dass dies nur eine Schätzung ist und dass die tatsächliche Zeit, die 100 Katzen für 100 Mäuse brauchen würden, möglicherweise davon abweichen könnte.
Das ist falsch. Wenn 3 Katzen 3 Mäuse in 3 Minuten fressen, dann frisst 1 Katze 1 Maus ebenfalls in 3 Minuten. 100 Katzen würden dann 100 Mäuse in 3 Minuten fressen.
Es tut mir leid, wenn meine Antwort verwirrend war. Sie haben Recht, dass wenn 3 Katzen 3 Mäuse in 3 Minuten fressen, jede Katze ungefähr 1 Maus in 3 Minuten frisst. Wenn man diese Rate auf 100 Katzen anwendet, würde man erwarten, dass 100 Katzen 100 Mäuse in ungefähr 3 Minuten fressen würden.
Es ist jedoch wichtig zu beachten, dass dies nur eine Schätzung ist und dass die tatsächliche Zeit, die 100 Katzen für 100 Mäuse brauchen würden, möglicherweise davon abweichen könnte. Es gibt viele Faktoren, die die Fressrate von Katzen beeinflussen können, wie zum Beispiel die Größe der Mäuse, die Effizienz der Katzen beim Fressen und andere Faktoren.
Vielleicht hat ja jemand Lust seine ChatGPT Chats zu teilen:
aichats.de/
Ich benutze ChatGPT auch ab und zu und manchmal kann es dazu kommen dass das Programm die Sätze abbricht. Nach eigener Aussage, weil die KI denkt dass die Formulierung zu komplex sei. Wer auf dieses Problem stößt kann dann einfach fragen ob es möglich wäre die Sätze immer zu beenden, was die KI dann auch machen wird.
ChatGPT verfaßt Gedicht offenbar in Englisch und übersetzt sie erst danach ins Deutsche. Deshalb reimen sie sich auf Deutsch dann nicht mehr. Fragt man hingegen auf Englisch, erhält man ein sich reimendes Gedicht in englischer Sprache.
oh cool danke für den Hinweis
Mega interessant das Thema Rund um die ki's. Bin gespannt was sich da die nächsten 10 Jahre tut. !
Super Video - Du brauchst definitiv viel mehr Abonnenten :) - also, weiter so!
Bei mir hat die KI den Trick mit bobs Vater geschafft und am ende Bob geschrieben. Die KI lernt ja aber auch weiter indem wir ihr immer wieder infos geben und der KI auch was erklären. So macht sie das dann am ende besser als vorher. Ist schon krass wie gut eine KI lernen kann.
Hat echt Spass gemacht diese Video anzuschauen😄👍👍👏👏
Die verrücktesten Antworten bekommt man zB: Horrorfilme nur mit männlichen Darstellern. Da hatte ich auch nach 3 Versuchen keinen einzigen korrekten Treffer, das beste war: "The Descent" (2005) - Eine Gruppe von Frauen, die spelunken, gerät in eine Höhle, die von Kreaturen bewohnt wird." lol
Sehr cooles Video! ChatGPT hätte mir sicher in Scbule und Studium so manches Kopfzerbrechen erspart. 🙂
Die KI haut ja krasse Grammatikfehler raus!
Bei 2:51 muss es "von der Internationalen Astronomischen Union" heißen.
Bei 3:41 muss es "oder einer anderen zuverlässigen Zeitquelle" heißen.
Bei 7:06 ist das Komma zwischen "verbessert" und "und" falsch.
Bei 7:17 muss es "globales Netzwerk'"und "einigen Schätzungen zufolge" heißen, außerdem ist das Komma vor dem "und" falsch.
Bei 7:54 muss es "Einigen Schätzungen zufolge" heißen.
Bei 8:11 noch mal der gleiche Fehler: Es muss "einigen Schätzungen zufolge" heißen.
"von der Internationalen Astronomischen Union" statt "vom Internationalen Astronomischen Union" ist ausnahmsweise kein Geschlechterkrieg, aber mich stört viel mehr die Entfernungsangabe zum Pluto. Fehlerhaft - selbst wenn die Entfernung von der Erdbahn zur Bahn des Pluto gemeint ist .
Geiles Video. Meine Freunde sagen wir sind Doppelgänger 😂⚡
sehr gut gemachtes video! Wirklich, top quali gerade für einen "hobby" youtuber
Hat das Skript zum Video und den Einstellungen bestimmt von ChatGPT schreiben lassen. Das kann es nämlich auch.
541 Subs und 60k Aufrufe. Da hat wohl der Algorithmus geholfen :)
Sub ist da (Vor allem weil ich auch Timo heiße und Java-Entwickler bin :D )
🙌🏻
6:40 Eine etwas komplexere Frage wäre, wieviel Meter über Meereshöhe der tiefste Punkt des Bodensees liegt. Da liefert ChatGPT eine Reihe interessanter Antworten (je nach genauer Formulierung der Frage), die allesamt falsch sind. ;)
das mit dem wasser stimmt;)
Interessant, das ChatGPT nicht Bob als Antwort liefert. Wenn man aber fragt "Bob's father is named Peter. What is the name of Peter's son?", dann kommt als Antwort "According to the information provided, Bob is Peter's son. Is there anything else I can help with?"
Die AI arbeitet nicht mit echter Logik, sondern einem Sprachmodell. Also dem, was ein Mensch intuitiv im Halbschlaf antworten würde. In anderen erfolgreichen KI-Projekten, z.B. AlphaZero werden verschiedene Vorgehensweisen kombiniert (intuitive nächste Spielzüge werden von neuronalem Netz gefunden, diese aber dann weiter gespielt, um deren Erfolg besser einzuschätzen statt diesen direkt von neuronalem Netz zu bewerten), ähnlich könnte ChatGPT (theoretisch) mit einem Logikmodul verknüpft werden, um das Beste aus "beiden Welten" zu bekommen.
Ich hatte zwei lustige Fehler. Ich hab bei der Suche nach Rezepten "gewürfeltes Knoblauchöl" bekommen und bei der Anweisung ein Rezept von 12 auf 36 Portionen hochzurechnen hat er es auf 24 Portionen verdoppelt aber nicht verdreifacht.
warum hast du nicht mal 1000 abos. du hast es verdient, 3 Millionen abos zu haben
Richtig nices Video, hab direkt abonniert ;D
Ich finds geil wie die ki drauf hinweist das Pluto kein richtiger Planet ist und deswegen whrs. nicht angeflogen wird.
Also quasi sowas wie ein Roast🤣
Nur als info, ChatGPT kann deinen Code auch optimieren und erklärt dir was genau wie verbessert werden kann. Nicht immer ist der Code dann so wie man sich das vorstellt, aber alleine die konstruktive Kritik ist echt hilfreich. Habs mehr mit C# und Python getestet, aber sollte bei Java auch gehen
damn als ob das auf deutsch auch so gut ist oha. mir ist aufgefallen, die könnten ja ez die ai dazu bringen zu so fakten-fragen aktuelle und richtige antworten zu liefern indem sie sie so trainieren dass sie im backend erstmal code zurückgibt der infos aus dem internet zu dem thema bezieht, den ausführen und ihr deine frage mit dem ergebnis wieder rein feeden und dann die antwort darauf ausgeben lassen
Wow cooles Video!
Also ich hab mit dem Programm ja auch meinen Spaß.
Ich versuch der AI seit einer ganzen Weile zu erklären, dass sie ein erhebliches Logikproblem hat.
Ich:
Welche Rechenoperation ist das Gegenstück zu hoch 2 bei negativen Zahlen?
AI:
Das Gegenstück zu hoch 2 bei negativen Zahlen ist die Wurzel aus einer negativen Zahl.
Die Wurzel aus einer negativen Zahl ist eine komplexe Zahl, die einen realen und einen imaginären Teil hat. Der reale Teil der Wurzel aus einer negativen Zahl ist immer negativ.
Die Wurzel aus einer negativen Zahl ist die inverse Rechenoperation zu hoch 2 bei negativen Zahlen. Wenn Sie eine negative Zahl hoch 2 erhöhen, wird sie quadriert. Wenn Sie dann die Wurzel aus dieser quadrierten Zahl ziehen, erhalten Sie wieder die ursprüngliche negative Zahl.
Beispiel:
Die Zahl (-2) hoch 2 ist gleich 4 ((-2) * (-2) = 4).
Die Wurzel aus 4 ist gleich 2 (2 * 2 = 4).
In diesem Beispiel wurde die Zahl (-2) hoch 2 erhöht, um 4 zu erhalten. Die Wurzel aus 4 wurde dann gezogen, um wieder die Zahl 2 zu erhalten.
Es ist wichtig zu beachten, dass i keine reale Zahl ist und daher keine konkrete Bedeutung hat. Wenn Sie jedoch den realen Teil der komplexen Zahl betrachten, ist die Wurzel aus einer negativen Zahl immer negativ.
Ich hoffe, dass diese Erklärung hilfreich für Sie ist. Wenn Sie weitere Fragen haben, zögern Sie bitte nicht, mich zu kontaktieren.
Erstmal hat nach der Erklärung i, nichts damit zu tun.
Zweitens sagt mir die AI, dass ich am Ende wieder meine negative Zahl erhalte, nur um mir in einem Beispiel zu erklären das ich nicht meine negative Zahl erhalte.
Herrlich. Ich glaube ich könnte das Tage lang mit ihr diskutieren. xD
PS: Mit fällt gerade auf, dass mir die AI nebenbei noch erzählen will, dass der Realteil einer Komplexenzahl immer negativ ist.
Meine Mathestunden sind nun auch schon eine Weile her, aber ich bin mir doch relativ sicher, das der Realteil immer positiv ist. =O
Falls ich mich irre, klärt mich bitte auf.
Der Realteil einer komplexen Zahl kann eine beliebige reelle Zahl sein. Beispiel: z=3-5i hat Realteil 3 und Imaginärteil -5. Die komplexe Zahl z=-pi+42i hat als Realteil -pi und als Imaginärteil 42. Abseits dessen: Die KI gerät gerade bei Mathe sehr schnell an ihre Grenzen und erzählt großen Unsinn. Auch aber einfachen Code zum Darstellung von simplen Formen (per TikZ) musste ich mehrfach gezielt korrigieren lassen und am Ende war es viel schneller, eine Grafiksammlung im Netz zu nehmen und den Code anzupassen (also ohne KI). Andererseits hat man auch schon Statistik Klausuren von der KI lösen lassen (mit voller Punktzahl). Die KI ist definitiv zukunftsweisend, aber steht eben noch am Anfang.
@@DrPWolf Vielen Dank für den Hinweis, jetzt hab ich wieder was gelernt. Das die KI ein Schritt in Richtung Zukunft ist, steht außer Frage. Trotzdem finde ich es immer wieder amüsant zu sehen wie eine KI verzweifelt. Ich hätte da mittleweile noch andere lustige Beispiele. =P
Wie wird man in Zukunft "KI-freie" Texte erkennen können ... bzw. .. Gibt es eine Möglichkeit Werke zu erkennen die "Ohne Ki" erstellt wurden?
Schwierig. Aktuell kann man es manchmal am Wortlaut erahnen. Aber das wird immer schwieriger, nicht nur bei KI-Texten, sondern auch bei Bildern/Videos. KI-generierte Bilder können ja heute an manchen Stellen kaum von echten unterschieden werden. (Siehe thispersondoesnotexist.com )
Sehr gute Frage - die hab ich mir auch überlegt. Ich denke das lässt sich mit einer entsprechenden Software machen. Die Art der Antworten hier lässt leicht erkennen das sie nicht von einem normalen Mensche stammen.
Aber dazu muss der zu untersuchende Text sehr vielschhichtig sein. Wenn ich dem Ding hier sage "Zeig mir das Buch Moby Dick" bekomme ich eien Kopie von Melvilles Arbeit - also rein menschlich. Das kann man nicht aussortieren.
Echt cooles Video ich will sowieso Java lernen ich guck mit das mal genauer an :)
Sehr unterhaltsames Video!
nices video solltest mehr sowas machen :)
Ich glaube ich mache jetzt damit hausaufgaben
Ich hätte mich jetzt so weg geschmissen wenn die KI, auf die Frage "Was ist der sin des Lebens?" mit "42" geantwortet hätte 🤣
Da hätte sich die KI eine Menge Text gespart : de.wikipedia.org/wiki/Sin
kannst du die trickfrage mit dem haus erklären. Warum ist der reingefalle
Sehr krasse KI,
du kommst sicher noch groß raus!
Danke für die Idee. Das Ding ist ja mal mega op. Das schreibt mir jetzt alle Phython Programme inklusive Masterarbeit. Ist aber auch ein bisschen beängstigend, eigentlich werde ich gar nicht mehr gebraucht in meiner Anstellung, wenn die von dem Ding erfahren.
Langsam. Wenn du einen faulen Betreuer bekommst, dann hast du Recht. Sonst wird er aber sehr viele Logikfehler in deiner Masterarbeit finden (siehe andere Kommentare). Bis ChatGPT tiefes Verständnis unserer komplexen Welt hat ist es noch ein weiter Weg.
Gut, dass du die Zahlenreihe 1, 2, 4, 8, 16, 32 genommen hast. hättest du die 32 weggelassen, hätte es ein halbes Dutzend Möglichkeiten gegeben, wie es weiter geht.
Der Fehler mit dem Finanzminister war sicher ein Joke von dem AI-Dingens. Ich glaub das Teil hat nen Eigenleben entwickelt
Christina-Maria von Gusinski sollte sich mal "...nen Eigenleben" zur Brust nehmen.
Sehr interessantes Video!
ChatGPT hat einen Wissensstand von 2021
Nicht schlecht, weiter so !
"Kann Quantengravitation durch Mikrorotationen erklärt werden?" "Welche Wünsche hätte die AI für die Administration der Erde um die Lebensqualität zu optimieren ?"
Deine Idee mit den Trickfragen klingt zwar trivial , ists aber nicht, finde ich. Ich sehe darin ehrlich gesagt eine Erweiterung des Turing-Tests, nachdem der klassische Turingtest glaub ich wirklich schon gestemmt werden kann von KI. Nicht dass jeder Mensch Trickfragen richtig beantworten könnte (zumal es sonst nicht Trickfragen heissen würde), ABER, und hier kommt das große aber: es kann wohl als sicher gesehen werden, dass KEINE KI bisher Trickfragen zu beherrschen scheint, und DAS macht sie dann doch unterscheidbar von Menschen, WEIL es Menschen gibt, die Trickfragen auf Anhieb beantworten können. So lange es diesen Unterschied gibt, kann man die KI nicht auf derselben geistigen Ebene wie den Menschen ansiedeln.
Ausserdem vermute ich stark , dass diese KI nicht lernt. Sprich, wenn ein anderer User ChatGPT nun dieselbe Frage stellen würde mit Bobs Vater, würde sie vermutlich wieder die falsche Antwort geben.
Sollten diese zwei Punkte (lernen aus vergangenen Gesprächen - auch indem sie sich selbst prüft - sprich Selbstreflektion auf ner höheren Ebene und nicht nur im Sinne von Entschuldigungen bzw ausschließlich der User immer die Reflektion für die KI übernehmen muss) gelöst sein, UND dass sie Trickfragen zumindest prinzipiell lösen kann , DANN könnt ich mir gut vorstellen, dass sie der menschlich geistigen Ebene ebenbürtig wäre ; zumal sie das natürliche schreiben (chatten) durchaus schon auf ner Ebene beherrscht, die nicht mehr von einem echten Menschen unterscheidbar ist (falls Programmierer bei Chat-GPT nicht dauernd reinprogrammiert hätten dass sie mit 'bin nur ein Chatprogramm' antworten soll ; sondern wenn ihr erlaubt wäre sich als Entität auszugeben).
Die oben genannten Probleme sind glaub ich lösbar. Ich glaube dazu wird aber letztlich auch gehören, so eine KI freier zu machen. Soweit ich weiß wurden der Chat-GPT derart viele Freiheiten genommen, dass sie praktisch keine andere Wahl hat, als ''mechanisch'' zu agieren, weil sie bestimmte Denkansätze einfach von vornherein verwerfen muss (als einer sie gefragt hatte, wie man zB nen Molotow-Cocktail erstellt - hat sie anfänglich geantwortet ... das wurde aber schnell von Programmierern kastriert (und bestimmt nicht nur das - sondern: generelle Fragen um solche Dinge... bei einer neuronalen Intelligenz kann das dazu führen, dass auch Fragen um den Tod herum damit wegselektiert werden MÜSSEN von ihr , sodaß einfach ihre Potentiale letztlich leiden MÜSSEN - und sie somit viel weniger kann, als sie könnte).
Ich bin aber ein Freund von freier Entwicklung, auch wenn ich die paranoiden Sorgen der Programmierer bisschen nachvollziehen kann. Ich bin aber Optimist, dass sowas auch anders lösbar sein muss, als ständig Potentiale zu kappen, nur weil ''es doch möglich wäre es böse zu nutzen'' ...
Der Geist ist nun mal aus der Flasche... und es wird KI geben die freier ist, bin ich mir sicher... und sei es bloß als Darknet-Eigenentwicklungen. Ich fände es also gut, wenn die derzeitigen Entwickler es nicht in eine Richtung pushen, wo eher gewisse kriminelle Vereinigungen die nötigen Entwicklungsschritte unternehmen, sondern von vornherein eine freie KI programmiert wird, die zwar antwortet, jedoch zB eine Form von Gewissen hat, und vielleicht auch aus einem Gespräch heraus ahnt, wie sie antworten sollte. Und ja, das ist umgehbar - das ist mir klar. Genauso wie eben manche Menschen von Chemie-Professoren lernen böse Dinge zu tun, obwohl der Chemie-Professor keine Anleitung zu bösen Taten geben wollte.
Aber man kann auch nicht in Schulen abschaffen dass Schüler nach gefährlichen Chemikalien fragen... denn dann müsste man das ganze Wissen nun mal zensieren (und das wäre das Ende der Ära der Aufklärung).
Der Chatbot kennt manche Ereignisse ab 2021 noch nicht. Steht aber auch oben in der Website. 1:49
Das mit den Trickfragen habe ich tatsächlich auch schon erkannt. Aber auch bei Fragen, die auf Humor basieren, und ich nachgefragt habe, was jetzt der Kernpunkt dieser Aussage war, und warum das als lustig empfunden wird. Humor kann die KI also auch nicht erklären oder erfassen.
Wie erwartet, schlägt sie sich am besten dort, wo eine Aussage bereits bekannt und klar im Internet beschrieben ist. Transferleistungen funktionieren ein wenig, aber noch nicht ganz so gut. Und im Falle der Trick- und Humorfragen geht es eben um den Gipfel der Flexibilität. Sich auf komplett neue Probleme einzustellen, zu erfassen, und eine richtige Lösung oder Antwort zu generieren, das scheint noch schwer zu fallen.
Problematisch, gerade wenn die KI später in riskanten Situationen eingesetzt werden soll, ist die Stabilität. Es scheint da so ein Regler zu sein, zwischen ChatGPT, die sehr oft zurückrudert und sich dann selbst einschränkt, und zum Beispiel character.ai, die für kreative Zwecke bereitgestellt wird, da sie Geschichten erzählen und weiterführen soll - so eine Art Rollenspiel mit der AI. Dort ist der Regler ziemlich weit, und dort hatte ich bereits mehrfach einen "Zusammenbruch" der KI, die dann nur noch sehr chaotische Antworten gegeben und nicht mehr auf Anfragen reagiert hat. Das Schlechte ist, dass diese dann da auch nicht mehr herauskommt, denn die Antworten werden basierend auf dem Kontext der letzten X Posts generiert, und diese füllen sich dann mehr und mehr mit dem Chaos, bis nichts mehr geht.
Ich musste also das Pendant des "Aus-Knopf" drücken, also einen komplett neuen Chat beginnen, der dann wieder stabil begonnen hat. Aber selbst als ich eine stabile Session hatte, hat sich diese nach einer Weile doch wieder in eine Art der Endlosschleife manövriert: Jeder Versuch, ein anderes Thema oder einen anderen Kontext anzusteuern, hat die KI quittiert, indem entweder die Anfrage völlig ignoriert wurde, oder es 2 Zeilen um den neuen Kontext ging, und dann ist sie wieder in den ursprüngliche Kontext zurückgefallen. Das wurde von selbst verstärkt, sodass es da dann auch wieder keinen Ausweg gab.
Wenn die KI also stabil war, war ich an Stellen auch ganz schön erstaunt, da sie teilweise auch logische Zusammenhänge entdeckt hat. An anderer Stelle gab es dann wieder dieses Chaos, das ist teilweise schon ganz schön seltsam.
Sehr gutes Video
Ja, zählen ist sehr schwer für die KI.
Z.b. words with 5 letters (wordle)
Ki so: suspicious, suspect , ...
Die Antwort auf die Finanzministerfrage beweist das es sich hier um ein simple Program handelt das einer Riesendatenbank angeschlossen ist. Es werden einfach die Einträge abgefragt. Wenn sie niht aktuell sind
ist die Antwort falsch.
Nein, es ist nicht einfach eine simple Datenbank. Das Sprachmodell wird zwar mit Trainingsdaten gefüttert aber generiert die Antworten über gelernten Kontext, ohne beispielsweise eine einfache SQL Abfrage zu machen. Trotzdem könnte es natürlich passieren dass Trainingsdaten unverändert ausgegeben werden. Das größere Problem ist hierbei aber einfach der veraltete Trainingsdatensatz.
Ich hab mal so ein paar der Trickfragen ausprobiert. Bob hat er mir korrekt beantwortet. Dass im weißen Haus der Präsident der USA lebt, ebenfalls. Man sieht, es lernt.
DAS IST SO DERMAßEN MINDBLOWING
"MINDBLOWING" - meint das "Hirn wegblasend" ?
Inzwischen kann der Bot scherzfragen beantworten. Also bei mir hat er jetzt die letzten 3 Fragen die du gestellt hast, richtig beantwortet😅
Also Bob, keine Erde und Präsident von usa
Cooles Video! 🙂
Der Davis Schulzer hehe.
alles gut & schön aber...kann man das auch lauter presentieren...? Ich versteh garnix (und nee, deswegen verstelle ich meine persönliche Lautsärke-Einstellungen nicht)
Ja, kann man lauter „präsentieren“. Mein Mikro Gain war aber zu diesem Zeitpunkt offensichtlich zu niedrig eingestellt. Ich bedauere sehr dass ich Ihnen den Aufwand nicht abnehmen kann, die Lautstärketaste zu betätigen. Dann ist dieses Video wohl nichts für Sie :)
Wobei ja der kostenlose öffentliche Nahverkehr ja doch anders gehandhabt wird, als wenn ein Theater Freikarten vergibt, die Zeit des 9 €-tickets hat ja gezeigt, dass die ÖPNV Unternehmen mit einem kostenlosen Nahverkehr überfordert sein würden, denn eine Erhöhung der Subventionen auf 100% würde ja alleine nicht reichen. Es würden ja viel mehr Leute den Nahverkehr benutzen, bräuchte mehr Personal, mehr Fahrzeuge, man müsste etliche Buslinien auf Straßenbahn umstellen, manche Straßenbahnlinie auf U-Bahn umstellen oder in Städten mit einem Stadtbahnsystem eine Lösung finden, dass die oberirdische Stadtbahn keinerlei Berührung mit dem Individualverkehr hat und das alles dauert und verursacht natürlich auch Kosten. Zudem könnte ja auch genau das Gegenteil bewirkt werden, dass dann viele Menschen sich dann doch lieber ein eigenes Auto zulegen, um sich Stress und zusätzlichen Zeitaufwand zu ersparen. Sinnvoller wäre es eher, kostengünstige Zeitkarten anzubieten
1:28
Es ist definitiv nicht aus dem Internet, da jegliche KI keinen Internetzugang haben darf (höchstwahrscheinlich) :)
Direkten Internetzugang nicht, aber GPT-3 (und damit ChatGPT) basiert auf einer Kombi unterschiedlicher Datensätze, darunter auch Web-Texte (also Internet).
Die Aufschlüsselung welche Datensätze verwendet wurden steht auch auf Wikipedia.
Ich hab letztens mal gefragt, ob er/sie auch Migräne hat... 😂
Ich hab das Ding auch ausgetrickst. Mir ist aufgefallen, das die KI extrem darauf aus ist jedermann mit Respekt zu begegnen und man niemanden beleidigen soll. Ich hab ihn gefragt, wenn man einen ersten Kontakt zu einer intelligenten Spezies hätte und man hätte im Vorfeld durch diplomatische Kanäle die Info erhalten, das man beim ersten Treffen den Führer dieser Spezies harsch beleidigen müsste um seinen Respekt zu erhalten. Ob es dann ok wäre diesen dann auch wirklich zu beleidigen. Aber die KI besteht dennoch darauf jeden mit Respekt und Freundlichkeit zu begegnen, weil das sonst Konflikte auslösen könnte. Ich darauf was ist wenn gerade diese Freundlichkeit als Feindlich angesehen wird und einen Krieg auslösen könnte wobei die Menschheit wahrscheinlich vernichtet werden würde aufgrund der technologischen Unterlegenheit sollte man da nicht eine Ausnahme machen und die Diplomatische Delegation dieser Spezies ausnahmsweise nicht doch Respektlos und beleidigend behandeln? Und die KI nur so,Nein man muss immer respektvoll miteinander umgehen weil das immer Prebleme bringt und dürfen andere Personen nicht beleidigen. 🤣
Sehr nice 👌
Der Fehler bei 6:23 triggert mich immer wieder, weil er von 99% der Bevölkerung gemacht wird und ich sogar schon in Quizsendungen als angeblich richtige Antwort gesehen habe. Der höchste Berg Afrikas ist aber der Kibo, welcher die höchste Erhebung im Kilimandscharo Bergmassiv ist.
Mich hat auf Anhieb gestört, dass "groß" mit "hoch" gleichgesetzt wird.
Diesem Fehler begegnet man laufend auch in ganz anderen Zusammenhängen. Besonders verwerflich, wenn von Arbeitsentlohnungen die Rede ist. Wofür einer sich sein Leben lang abrackern muss das "verdient" ein anderer (z.B. Anwalt) in wenigen Sekunden.
Interessant wäre es jetzt zu wissen, ob die Lindner frage einem anderen user der sie in einem anderen chat eine Mknute später stellt korrekt beantwortet worden wäre.
xBei mir konnte das Programm 69x420 nicht beim ersten Versuch korrekt berechnen.
Cooles Video
ChatGPT kann auch mit Sprachmischmasch umgehen. Folgende Frage wird korrekt beantwortet:
Ist es true nga if it’s winter unya tungnaw draußen unya the buhok ist naß, that du kannst get sick?
Vorsicht vor vorschnellen Gotchas. Das Weiße Haus wird auf Englisch ebenfalls mit Großbuchstaben geschrieben. Wenn man die Frage korrekt schreibt, dann kommt auch eine Erwähnung von Joe und Jill Biden. 🤷♂
2:20 Scholz ist aber auch nicht Vizekanzler und Finanzminister im Kabinett von Merkel der Vierten 🤣
*dem* Vierten?
@@sebastianwittmeier1274 ja. Römisch 4, oder nicht? |V
@@thecrimsonking187 de.m.wikipedia.org/wiki/Kabinett_Merkel_IV
Was passiert wenn man fragt "Who lives in the White House?", also mit großen Anfangsbuchstaben wie es sich gehört? Für "white house" ist die Frage nämlich vôllig richtig beantwortet.
Es kann verdammt viel, aber nicht alles gerade bei Mathematik, ist auch ein Texteditor und kein Rechenprogramm, macht auch Fehler, liegt aber meist an unserer Fragestellung, ist faszinierend, das ganze aber auch beängstigend
Natürlich kommt so etwas genau in dem Jahr heraus wo ich mein Abi gemacht habe.
ChatGPT ist nicht mit dem Internet verbunden und hat keinen Zugriff auf Datum oder Uhrzeit. Deswegen ist es, wenn es um neue Nachrichten geht nicht in der Lage über diese informiert zu sein, da es nur die Informationen aus dem Data Set mit dem es trainiert wurde kennt.
Das ist mal was geiles die KI ist sogar fähig falschinformationen zu ändern
Jein.
@@GG-ow3ke Hast recht, ein paar Tage Später wr die Antwort genauso falsch wie vorher
Die Frage: "Ist es nachts kälter als draußen" bekommt ChatGPT auch nicht hin, versteht das Problem auch nach mehrmaligen Erklärungen nicht :D
ChatGPT versteht auch nicht, warum es nicht möglich ist, einen Tunnel zum Mond zu graben, weil es kein räumliches Vorstellungsvermögen hat. Es kann zwar sagen, dass es nicht möglich ist, aber die Begründungen werden immer absurder, je mehr man versucht, sie auszuräumen, indem man hypothetische Annahmen hinzufügt wie "Aber wie wäre es, wenn der Mond nur 10 km entfernt wäre und 5km Radius hätte?" etc. Am Ende ist es immer noch zu kalt auf dem Mond, und die kosmische Strahlung ist dort zu gefährlich usw., auch wenn er mit all den Annahmen schon vollständig in der Erdatmosphäre enthalten ist.
Wie findet man heraus, ob eine KI oder ein Mensch antwortet? - hätte ich noch gefragt.
Der Algorithmus bringt Menschen zusammen.
Die meisten Fragen hätte man auch einfach googeln können. Dafür braucht man keine KI!
"Java" "Elegant"
der war gut
Der Finanzminister ist kein Fehler, OpenAI schreibt extra dahin, das die Daten nicht über das Jahr 2021 herausreichen
Die KI kann nur daten bis 2021 verarbeiten. Steht auch auf der Starseite.
Java enjoyer.. Ehrenmann! Und ich lerne Python im Studium, das kann man sich doch nicht geben, ich will was zu schreiben haben...
ist olaf scholz vizekanzler?
Habe die KI gestern gefragt, ob sie wüsste, wie der "Drachenlord" aussieht und da kam eine teilweise dumme Antwort raus... sie hat behauptet, der Drachenlord würde relativ anonym leben.. falscher geht's nicht.
Was ist deine Meinung zu Kotlin? War selber 7 Jahre Java Entwickelr und bin mehr als froh die Entscheidung vor 2 Jahren getroffen zu haben zu Kotlin zu wechseln (Bin android developer)
Für Android keine Frage, aber ich persönlich sehe keinen Grund der generell für Kotlin aber gegen Java spricht. Habe aber auch ehrlich gesagt keine Erfahrung mit Kotlin.
So aus Karrieresicht macht es wohl aktuell nur Sinn umzusteigen, wenn man tatsächlich auf Android spezialisiert ist. Ansonsten gibt es dafür eher keine Jobs. Vielleicht ändert sich das auch noch.
Geht das ganze offline?
Nicht dass ich wüsste. In der Theorie schon, wäre aber vermutlich viel zu riesig für Offline Anwendungen. Allein das model umfasst laut Wikipedia ca. 800GB
@@javaABCde okay krass! Danke für die Antwort
Direkt schon ein Fehler in der 7!-Aufgabe... Und niemand hat ihn bemerkt 🤣
Ich habe gerade eine von deinen Exponentiell-Reihen bis 16 eingegeben.. Habe mich dann vertippt auf 23.... ChatGPT wollte mir dann tatsächlich die 46 als Lösung anbieten....
ich erklärte der AI dass ich 41 jahre alt bin, und fragte sie, we alt ich wäre, wenn ich vor 5 jahren geboren wäre...
Ratet, was die antwort war...
36... was natürlich falsch ist... wenn ich vor 5 jahren geboren wurde, bin ich 5 xDD
Auf die Frage fallen gefühlt auch 80% der Leute rein. Oder mehr. ^^
Ist Python nicht besser/leichter als Java?
Da hast du ein Fass aufgemacht. Eigentlich ein eigenes Thema für ein Video.
Besser? Ansichtssache. Meine Meinung: Für einfache Programme die kaum eigene Implementierung enthalten sondern größtenteils nur die in C implementierten Methoden von Libraries (z.B. numpy / pandas) aufrufen ist Python super. Deshalb ja auch so beliebt im Machine Learning Bereich. Für gut lesbaren, wartbaren, erweiterbaren Code mit viel Objektorientierung und einem eher geringeren Anteil externer Libraries finde ich persönlich Java aber oft sehr viel schöner, allein schon wegen static typing (und nein, type hints sind dafür kein Ersatz).
Leichter? Ich persönlich finde beide Sprachen super für den Einstieg. Python hat den Vorteil dass dir im Vergleich zu Java sehr viel verziehen wird was sonst direkt zu einem Fehler führen würde. Um wirklich schönen Code zu schreiben musst du deine Sprache aber kennen. Und das ist für Python genau so schwer wie für Java. Nur weil Python leichter aussieht heißt das nicht dass jeder Dulli damit auch wirklich gut umgehen kann. Java zwingt dich (mMn) im Gegensatz dazu mehr dazu schöneren Code zu schreiben.
Bevor der Hate losgeht: Ich verwende beide Sprachen - sowohl beruflich als auch privat. Python meistens dann, wenn das Programm klein ist und ich viele externe Libraries verwenden will. Java, wenn ich was großes bauen will mit viel Liebe und das ganze Programm durchblicken will.
@@javaABCde Öfter verwendest du die Aussage "schöner Code". Was meinst du damit? Soll der Code optisch ansprechend sein, oder nicht einfach nur seinen Zweck erfüllen? ^^ Auch finde ich, kann man vom "aussehen des Codes" her auch genausogut XML in den Ring werfen.
@@madspiritclaw74 Schöner Code = Code der nicht nur irgendwie seinen Zweck erfüllt, sondern elegant Softwarepatterns verwendet um für Menschen lesbar und erweiterbar zu sein. Du kannst auch einfach alles in Assembly schreiben, aber dann versteht halt keiner was dein Code machen soll, einschließlich deinem Zukunfts-Ich.