Ein Format, indem du mit GPT-o1 ein komplettes Projekt umsetzt wäre echt spannend. Die Tests und Fragen haben ja eine gewisse Form und Umfang, wie bei Hausaufgaben oder Klausuren. Diese Form wird in den Trainingsdaten garantiert enthalten sein. Ein reales Projekt verlangt neben dem reinen Fachwissen auch die Fähigkeit es in einem Kontext anwenden zu können. Genauso wird die Nutzbarkeit der Modelle stark davon abhängen wie gut wir mit dem Output umgehen können.
Am besten ein Projekt erweitern welches schon besteht. Neues einbauen und altes erweitern. Solang die nicht meine gesamte Code-Base können, bringt es mir wenig das er mir ein Leetcode Problem lösen kann. ( Hab in 4 Jahren gefühlt seltenst solch ein Problem lösen müssen )
Die Wahrscheinlichkeit ist nicht gering, dass wir uns sehr schnell einem Plateau nähern, oder dieses bereits erreicht haben, was die Verbesserungsmöglichkeiten der derzeitigen Technologien für KI angeht. Die haben mittlerweile alle Daten gefressen und mit dem eigenen Output zu lernen läuft nicht so gut. Was die jetzt mit 4o gemacht haben, kann man vielleicht auch schon als Zeichen dafür sehen. Es ist nicht unbedingt eine Verbesserung des Modells, wenn man einfach mehr und mehr Rechenleistung hereingibt, um drei oder viermal hintereinander über die gleiche Frage nachzudenken.
Ist doch kein Wunder bei den Chips die Nvidia raushaut 440.000 Blackwell Chips an Open AI. das wird gigantisch die Rechenzentren werden Fußballfeld groß
Bin einfach hyped af. Hab meine privat entwickelte front-end library einmal durchlaufen lassen und jede klasse um durchschnittlich 5-10 parameter erweitert, das teil hat hunderte lines perfekt refaktorierten und kontexturierten code innerhalb von Minuten ausgespuckt. Ich bin so viel produktiver mit dem model, das ist einfach wahnsinnig. Mein Job ist dadurch nicht in Gefahr, eine KI kann nur grobmotorisch prompts interpretieren, visionäres reproduzieren von Anforderungen ist unmöglich durch künstliche intelligenz zu ersetzen.
Ich bin Softwareentwickler und wir haben seit 3 Monaten Copilot im Einsatz. Ich schreibe jetzt öfter Mal Prompts statt Code und das wird sicher noch mehr werden. Die Arbeit geht damit etwas schneller. Ob man nun Code oder Prompts schreibt, ist aber im Prinzip egal. Auch Prompts sind nur ne Art Programmierung. 🤷
Mit chatgpt40 war schon fürs coden nicht schlecht , aber O one ist einfach der absolute Knaller , eine Controller Platine die ich auf einer esp32 Basis programmiert habe dauerte ca. Knapp zwei Wochen , mit O one keine 2 Tage , OOne macht viel weniger Fehler und ist Geschwindigkeits mäßig einfach komplett Irre .
Claude hat es mal geschafft, mir Code zu geben den ich nicht verstanden habe. Ich musste mir also von einer KI den Code erklären lassen ... mit über 20 Jahren Erfahrung in der Programmierung. Das Modell wird mich wahrscheinlich direkt auslachen. 🤷🏼♂️
@@efficiencyvi8369 In den allermeisten Fällen ist das schlechter Code. Code sollte immer verständlich geschrieben sein, auch wenn man geringe Performance-Einbussen in Kauf nimmt.
@@efficiencyvi8369 Bitte schön wenn ich Dir dabei helfen konnte darauf zu kommen 😂 Wenn Du solchen Code nicht verstehst, dann sag Claude er ist schlecht geschrieben. Hilft mehr als klammheimlich GPT zu fragen. So wird Euer Codebase nie besser. Auch mit allem Sarkasmus nicht.
@@rainair402 Nein, ernsthaft. Das war wirklich elegant gelöst. Nachdem ich es verstanden hatte, machte es auch absolut Sinn. Das war also eher meine Codebasis, die in dem Fall Mist war.
super geil. Hab direkt heute auf Arbeit die erste anspruchsvolle SQL Aufgabe damit erledigt (ich arbeite im BigData Bereich). Das lief wie geschmiert. Langsam hab ich bisschen Angst um meinen Job :D
Also ich halte diese Bewertungen mit Doktoranden Niveau nicht für realistisch, mindestens was die fluide Intelligenz betrifft. Ich habe versucht nach genauer Anleitung einen Machine Learning Algorithmus implementieren zu lassen und dafür war o1 preview auch nach mehreren Versuchen schlicht zu dumm.
Schöner Abriss über LLMs beim Coden. Ich hatte O1 ausprobiert bin dann aber wieder zu Claude 3.5 zurück, ist einfach besser. Vielleicht verstehen Claude und ich uns zwischen auch einfach sehr gut. 😉 Mein OpenAI Abo hab ich wieder pausiert, bis was wirklich releventes kommt. Ich habe nur langsam das Gefühl ich verlerne selber zu coden, an und an muss man sich eben zwingen selbst was zu schreiben.
Wer weiß wie lange. Ich hab vieles wo ich früher unseren Designer beauftragt hätte durch KI lösen lassen. Im Prinzip kann man mit der KI wie mit dem Designer sprechen und die passt alles an. Jeder Wunsch wird beachtet und die KI ist auch nicht genervt wenn man zum 10. mal Änderungen anfragt.
Ich teste die Modelle immer mit der gleichen Aufgabe: Erzeuge ein Initiales Beispiel für ein vim Clone in c++ unter Linux. Das interessante ist, die Modelle werden besser. Aber es wird immer schwerer ein Problem im Code zu fixen. Sowohl für die KI als auch für den Anwender der des Tools. Und hier kommt jetzt auch das Problem, der Entwickler baut kein Verständnis für den Code auf und der Code ist zu diesem Zeitpunkt Legacy. Dies bedeutet, jede Änderung dauert Ewig und kann nur unter schmerzen durchgeführt werden.
aha gä, die KI versteht den code lass ihn beschreiben, und wie du was bestimmtes einbaust. ich sehe da jetzt keine schmerzen. die Kontext Fenster werden immer größer von daher lokales Programm und schon versteht die KI den ganzen code. ich denke früher oder später befasst man sich nur noch mit bugfix, die KI kann die Optimierungen machen.
@@TheSoliver84 Mal eine Frage selbst Informatiker oder Entwickler? Wenn ja, dann frage ich dich, wie lange brauchst du in einem dir fremden Code einen Bug zu fixen? Selbst wenn der Ursprüngliche Entwickler dir den Code erklärt. Aber dir nicht verrät wo du suchen sollst? Wenn nein, wie kommst du darauf ?
@@TheCefourich mache das auch und es hat sich bewährt, den generierten Code in einem neuen Chat auf Funktion und Korrektheit prüfen zu lassen. Oft genug ist GPT erst mal auf einer falschen "Gedankenspur" und ist nicht davon abzubringen. Neuer Chat, Reset, zur Not mehrfach neuer Chat 😎. Man merkt sehr schnell, ob er diesmal in der richtigen Spur ist
@TheCefour, Ich bin sowohl Informatiker als auch Entwickler, Aktuell betreiben wir 10 Server mit 20 Nvidia H100 GPUs und haben eigene Modelle entwickelt, an denen wir bereits seit 2019 arbeiten (feilen). Zusätzlich haben wir OpenAI als API integriert, wodurch unsere Modelle miteinander kommunizieren können. Wir sind auch Partner von Replit und Coursor, was uns ermöglicht, diese Plattformen direkt anzubinden. Unser Fokus liegt auf der Entwicklung von Softwarelösungen für den Pharmabereich es ist das führende Unternehmen.
Heute habe ich o1 verwendet, um bestehende Codes zu refaktorisieren und zu optimieren. Das hat super funktioniert. Allerdings war das Neuschreiben bei der Problembeschreibung eher unbefriedigend.
Mal ehrlich, in einem Jahr schreibe ich meine Bachelorarbeit in Informatik. Bis dahin werden die Modelle noch viel besser sein. Und sie sind jetzt schon besser als ich selbst. Ich frag mich echt ob es sich noch lohnt die BA zu schreiben?
@@Xcf_341 Wenn alles andere den Bach runter geht hat aber auch keiner mehr das Geld für Handwerker oder Pfleger. Das müsste dann steuerfinanziert werden, aber die Steuereinnahmen sind dann ja auch weg.
Bin aktuell im 3. Semester von Informatikstudium mit dem Ziel softwareentwicklung und habe mitlerweile wegen Ki jeden einzelnen Tag zweifel ob ich weiter machen soll oder doch lieber was im Handwerk machen sollte..
Ich hab deswegen auch den Bereich etwas gewechselt. Bei uns werden viele Arbeiten mit Frontend Fokus über KI generiert. Klar überprüft man den Code noch oder muss was korrigieren. Aber es werden deutlich weniger Entwickler mehr benötigt.
Ist es denkbar, ein ganzes Unternehmen (KMU Level) mit allen Legacy Applikationen und Business kritischen Schnittstellen einzulesen, um Applikationen in den Griff zu bekommen, deren Autoren nicht mehr im Unternehmen sind (und tiefes Business Logik Verständnis mit sich nehmen).
Würde sagen nein. Auch die KI hat kein Verständnis der Business Logik, sie kann nur mit dem vorhandenen code arbeiten. Und ich gehe Mal davon aus, dass nicht alles bis ins kleinste Detail beschrieben ist, warum Dinge so gehandhabt werden wie sie's tun, denn dann könnte das Programm ja auch jmd warten ;) und das wäre dann auch unter der Annahme, dass die KI ein komplett fehlerfreies und perfektes Resultat liefern kann. Hilft nix, stellt jmd ein der sich durchwühlt und das Ding wieder wartbar macht, oder ersetzt es wenn möglich Stück für Stück durch wieder wartbare Software. Dabei baut die Person auch automatisch das Wissen mit auf und ist ein wertvoller Teil bei der Planung von Erweiterungen/Bugfixes.
Ich werde nächstes Jahr im Oktober Informatik Studium beginnen - das heißt Oktober 28 Bachelor und wenn alles gut läuft Oktober 30 Master- wo denkst du wird KI Ende 2030 stehen ? Lohnt es sich noch ?😊
Lässt sich mit das o1-Modell ein maßgeschneideter Computer für deine Oma erstellen? Also es werden nur die Programme installiert, die deine Oma braucht, für Updates ist keine Passworteingabe erforderlich. Die Updates erfolgen automatisch aber nicht ungefragt. Sie erhält auch eine ausgedruckte Anleitung. Als Betriebssystem schwebt mir NixOS vor. Da deine Oma das Betriebssystem auch selbst installieren soll, braucht sie auch dafür eine ausgedruckte leicht lesbare Anleitung.
Folgende Challenge ist FEHLGESCHLAGEN: Ich bat GPT-o1 darum, ein Python script zu schreiben, dass die aktuelle GPT API benutzt um auf eine Frage zu antworten. Dazu habe ich sogar einen Link zur aktuellen Dokumentation mit angefügt. Leider hat es GPT-o1 nicht geschafft. Erst nach ca. 15 (!!!) Korrekturhilfen. Nachdem es dann mal einigermaßen funktioniert hatte, bat ich um eine kleine Anpassung und schon war wieder alles im Eimer.
Ich sehe nur spezifisches Domainwissen innerhalb eines Unternehmens als Vorteil ggü der KI an allerdings muss man sich dieses erst mal aufbauen. Hier haben oft auch nicht die Entwickler die Nase vorne sondern operative Mitarbeiter. Beispiel: Einkaufsabteilung mit eigener Analytik-Stabstelle. Die Analytiker werden sich von ihrem Job verabschieden können. Die Einkäufer, mit dem spezifischen Domänenwissen, nutzen KI selbst für ihre Analysen und Verhandlungen mit Lieferanten. Change my Mind
Bei chat gpt fällt mir ganz stark auf Funktionen und Konzeptionen sehr gut gemacht wird. Problem ist nur wenn ein Entwickler nicht Grund Struktur und Prinzipien kennt und natürlich was er überhaupt machen soll. Ist leider mir schon öfter in der Wirtschaft aufgefallen
mögliches Angstszenario 🤔 Je besser das Ding wird, umso weniger werden programmieren, umso weniger Programmierer wird es geben, und irgendwann versteht kein Mensch mehr was das Teil überhaupt macht - bzw. wie man mögliche Fehlentwicklungen korrigieren könnte. Was dann?
@@huibert_devet das auf jeden Fall 😀 und ich hab sicher keine Angst vor KI. Trotzdem wäre es glaub ich sinnvoll auch mal an die andere Seite zu denken 🫣
@@Hilfe mache ich ja 😉, Du an Deine, ich an meine In gewisser Weise ist das eine Demokratisierung wie "damals", als uns die PC und Mac erlaubten, mit den Möglichkeiten dieser neuen Technik Firmen zu gründen, was wir sonst nie hätten tun können. Seit 1998 mit dem Internet kann ich mich darum als Lebensunterhalt im Web tummeln 🤗
Also ich nutze das o1 Model momentan für webentwicklung ist super für Optimierung und refactoring neu Entwicklung ist teilweise noch nicht da einfach weil die Anforderungen relativ genau definiert sein müssen. Ich bin tatsächlich obwohl ich es viel nutze noch nicht in die Limits gerutscht.
AI requires more electricity to complete even simple tasks compared to typical search queries. In the U.S., about 60% of that electricity comes from burning fossil fuels, which is the primary driver of climate change
claude ist aber für mich Laien in meiner Erfahrung viel besser und wenn ich next js app haben will dann. Ist v0 noch besser, aber allgemein glaube ich dass o1 bestimmt viel besser sein wird sobald limitations weg sind.
@@TheMorpheusTutorials Danke für die Antwort. Inwiefern sollte das meine Studienwahl beeinflussen? Es gibt viele Richtungen von "Angewandter Informatik" zu "Software Engeering" zu "IT Sicherheit" usw.
Immer diese Panik, ich studiere auch gerade Informatik. Es gibt einen massiven Mangel allein in Deutschland durch die wegbrechenden Seniorentwickler der Babyboomer. Das kann Ki nur Ansatzweise auffangen. Und mit Ki muss man immer noch coden und implementieren es geht nur schneller und effizienter. Trotzdem braucht man sich da keine Gedanken um langsamer steigende Löhne oder ein überangebot zu machen es wird eher noch knapper als es jetzt schon ist. Der Informatikerbedarf wird in den nächsten 20 Jahren expotentiell zunehmen und es kommen nur linear leicht mehr nach.
Hello my fellow Coding nerdies. Also ich bin gerade am Anfang einer Umschulung zum Anwendungsentwickler und stelle mir die Frage ob wir dann bald arbeitslos werden wenn Ki vermeidlich besser und schneller programmieren kann als wir
Die 30 Request hatte ich nach 4 Stunden schon voll, daher schwer ausgiebig zu testen, aber mittlerweile würde ich fast sagen es ist schon mit einem durchschnittlichen Senior zu vergleichen, während es früher gefühlt nur ein sehr schneller Junior war. Oft hab ich 20-30 diskutieren müssen, bis ich eine Lösung in der Qualität habe die ich haben wollte. Als Senior mit 30 Jahren Erfahrung löse ich aber ja üblicherweise aber auch keine leichten Probleme. Aber man merkt wirklich einen deutlichen Qualitätssprung und das freut mich. Aber es sind immer noch viele Fehler drin. Am Ende ist es ja vermutlich nicht intelligenter geworden, sondern evaluiert nur mehrfach um die Ergebnisse zu verbessern. Und das lest sich vermutlich nur beheben wenn man einfach eigenen Trainingsdaten erstellen bzw. die Modelle einfacher selbst anpassen kann.
Das Niveau auf dem GPT sich selbst prompten kann ist enorm. Der Ansatz wurde ja schon manuell mit anderen Modellen gemacht. Allerdings gehe ich stark davon aus das Open AI eine Art von Teilen und Herrschen hierbei verwendet. Hunderte Juniors richtig geprompted können auch sehr viel bewerkstelligen.
Offtopic Frage: Hat jmd eine Lösung (Win, PC), wie man ausgewählte dateien nur anhand des namens und ohne dateiendung (zB aus einer liste) aus einem ordner in einen anderen kopiert? Mit einer batch lösung finde ich leider nur ansätze dateien mit endung zu kopieren ...
Es ist ja schon lange klar das die Transformer Modelle mit Iteration viel besser werden. Problem ist halt die benötigte Rechenleistung. Da muss Nvidia (oder wer auch immer) noch sehr viel schnellere NPU's entwickeln. Damit müssen dann neue Rechenzentren gebaut werden. Das kostet mehr als der gesamte Staatshaushalt von Deutschland und China zusammen. Ich glaube 7 Billionen Dollar wollte Sam Altman, CEO von OpenAI, dafür einsammeln. Absoluter Wahnsinn.
Sam möchte 7 Mrd. investieren. Das ist noch deutlich weniger als die 9XX Mrd. die Deutschland jährlich ausgibt, oder die 1'5XX Mrd. die China dieses Jahr ausgeben wird. Open AI wird dabei vor allem auf viel mehr Chipfläche aus sein, da der Stromverbrauch von Chips exponentiell mit dem Takt geht. Ist sehr vereinfacht gesprochen auch der große Unterschied zwischen A100 und RTX Karten.
Man kriegt nie guten Code, aber Boilerplate. Viel anstrengender die Scheiße von dem durchzulesen als ihn selbst zu schreiben. Umgekehrt wäre das viel hilfreicher.
Leider nein. Gegen Halluzinationen gibt es kein Fix. Das ist eine Eigenschaft von neuronalen Netzen. Ist eigentlich das gleiche Problem wie bei Wetterberichte. Neuronale Netze sind nichtlineare Gleichungssysteme, also chaotisch. Das heißt Logik macht LLM Probleme. Große Projekte wird immer ein Problem werden. Den meisten Entwickler wird LLM nicht helfen, weil die Daten in die USA gehen. Also ein No-Go sind.
Und am Ende sind es doch nur statische Wörtertaschenrechner, die es aktuell nicht schaffen stichfest zu begründen. Macht mir Angst dass eine irrelevante Information mehr dazu führt dass die Modelle aufeinmal grundlegend falsche Aussagen treffen.. das betrifft aber alle Modelle aktuell
Wenn du links einbaust oder in den Filter von UA-cam fällst, wird es automatisch gelöscht, da hab ich nicht Mal Kontrolle darüber. Ich selbst habe unter diesem Video nicht 1 Kommentar gelöscht, wie du an diesem vielleicht merkst
Das o-Modell hat meiner Erfahrung nach einen Hang zum völligen umcoden, und lässt essenzielle Teile des Codes weg, besonders die, die es nicht versteht. Das o1-Modell kann ich nicht beurteilen, habe keinen Zugriff darauf. Habe OpenAI verlassen, weil die Erfahrung einfach nur nervig war.
@@TheTaimon und wenn es anspruchsvoller wird. Meine Coding-Beispiele haben schon ziemlich viele Zeilen und diese Zeile sprich APP's wollte ich dann mit einem KI-Bot noch weiter verbessern und dann passiert es meistens, dass die Zeilen zu lang sind und daher nicht verarbeitet werden können. Was dann natürlich ärgerlich ist. Vielleichst hast Du mir da noch einen Tipp?
@@andrinSkyleider habe ich bisher hier keine guten Erfahrungen gemacht. Wenn ich Zeit habe teste ich mit o1. Aber mein HTML Code ist vermutlich auch kein gutes Beispiel 😂
Das ist jetzt schon eine Frage nach welcher Abstraktion du haben möchtest. GPT kann Maschinencode generieren. Allerdings braucht das deutlich mehr Tokens als eine höhere Sprache und dürfte für kaum jemanden lesbar/prüfbar sein. Und wenn dein Code auf unterschiedlicher Hardware laufen soll, ist es ein Nachteil.
@@MrHaggyy Wie kann ich das denn erreichen, dass GPT Maschinencode erzeugt? Ich hab es ca. 20 mal immer wieder aufgefordert das zu tun und es hat sich vehement geweigert. Punkto Prüfbarkeit und unterschiedliche Hardware sind Kinderkrankheiten, die in 20 Jahren keine Rolle mehr spielen werden, schätze ich mal. Spätestens wenn man o1 sagt, dass es einmal für jedes OS den Maschinencode erzeugen soll, hat sich das selbst heute schon erledigt. Und die Prüfung könnte durch eine entsprechende Prüf-KI durchgeführt werden. Die einzige Frage ist, ob es in 20 Jahren KI-Anbieter geben wird, die entsprechend vertrauenswürdig sind. Aber technisch sehe ich da nicht die geringsten Schwierigkeiten, wenn man berücksichtigt wie schnell die Entwicklung allein in den letzten 3 Jahren gewesen ist.
Ich hab das auch mal getestet gehabt mit meinem zig Projekt und o1 konnte mir leider auch nicht helfen. Musste auch ständig Code korrigieren. Und das Projekt gibt es auch ganz sicher schon 100 mal, also war jetzt nix was es noch nie gab, wo die ja eh versagen, aber zig ist definitiv nicht so seins.
Ja man geht auch nicht hin und macht so Code Generierung als one shot mit nem dicken Modell. Ich empfehle hier einfach Plandex und/oder Aider in Kombination mit Continue zu nutzen. Plandex/Aider um die Projektplanung abzudecken und Continue um dann Finetuning zu machen. Schön mit nem yi-coder Modell da kostet der Kontext nicht soviel, kannste auf 20 GB VRAM locker 24K context starten, da packste schon das halbe Projekt rein. Plandex muss man leider mit OpenAI oder Claude nutzen, aber das Resultat ist unglaublich (auch ohne o1 haha).
du musst halt nach wie vor genau beschreiben was du möchtest. Wenn du den code nicht selbst erklären kannst, kann o1 ihn auch nicht schreiben. Das ding ist kein ersatz für Entwickler, sondern eine virtuelle compiler ebene. Du schreibst nur eben keinen code mehr, sondern prompts. Das heisst nicht dass du dich zurücklehnen kannst und nichts mehr tun musst.
@@hitbox7422 Ich wollte das er eine Funktion schreibt, die die höchste Pokerstraße (also 5 in einer reihe) aus 7 Karten gibt, aber berücksichtigt, dass ein Straight Flush mehr gewicht hat als ein normales Straight mit vielleicht höherer Abschlusskarte. Ein Szenario das schon mehrfach programmiert worden ist. Was soll ich dem Poker erklären, wenn dann erklärt GPT MIR das, würde ich erwarten. Diese Aufgabe kann kein ChatGPT 4o, kein o1, kein Claude, kein gar nix. Jede AI ist zu blöd dafür. Da is nix zu erklären.
@@MrOnePieceRuffy dann unterteile das Problem. Ich bin Front-End Entwickler und schreibe fast alle meine Libraries selber, ich hasse nichts mehr als unnötige Funktionen die im selben scope liegen wie das was ich davon verwende. Wenn ich eine Klasse mit 20 Parametern auf einmal requeste kommt nur dünne Soße raus, egal wie präzise die promts sind.
Wer zahlt denn die Handwerker und Pfleger wenn die ganzen Büroarbeiter arbeitslos zuhause sitzen? Die haben genug Zeit um das nötigste selbst zu machen und können auch selbst auf ihre ältere Verwandtschaft aufpassen.
Bei dem lächerlichen Lohn arbeitest du nur für den Porsche deines Chefs. Und für die Selbstständigkeit braucht man einen Meister, was 10 Jahre dauert, und dann sechsstelliges Startkapital. Keine Lösung.
Handwerk: ja. Pflege: auf keinen Fall. Lasse mich doch nicht für knapp über 20€ zum Sklaven absurder Personalschlüssel machen. Dann noch Schichtarbeit, die einen auf kurz, oder lang, zum physischen und mentalen Krüppel macht - nein, danke.
In Problemen die auf ein Optimum hinaus laufen funktioniert das. Z.b. bei Schachbots hat man sie irrsinnig viele Partien gegen sich selbst spielen lassen. Manche Probleme wie z.b. Logik verlangen aber einen festen Datensatz an richtigen und falschen Beispielen. Hier ist KI im Lernen nicht hilfreich, weil entweder ist die Antwort falsch oder richtig. Und dann gibt es noch das Problem der Bennennung. Sozusagen die Vokabeln eines Fachgebietes. Hierbei müssen wir Menschen uns vor allem erstmal einig sein, wie das Schweinchen heißen soll. Und danach müssen wir es in die Trainingsdaten richtig einpflegen. Würden wir das Modell sich wahllos Informationen aus dem Internet ziehen lassen, dann würde das Modell wieder vom Level eines Doktoranden auf das Niveau eines üblichen YT-Kommentares oder Redit Posts abrauschen. Aber auf dem Weg zu einer AGI müssen wir auch das Lernen der Modelle automatisieren.
Das model basiert nicht auf Optimisierungstechniken (oder zumindest nur teilweise), sondern auf Datenmengen. Je mehr Daten du hast, desto mehr Kontext kann generiert werden. In diesem fall ist es nunmal so das theoretisch alle praktisch existierenden Daten erfasst wurden, weshalb eine Optimierung technisch nicht mehr möglich ist.
Gehe bald in Rente. Gut dass es nun einen würdigen Nachfolger gibt.
Wild😂
Ein Format, indem du mit GPT-o1 ein komplettes Projekt umsetzt wäre echt spannend. Die Tests und Fragen haben ja eine gewisse Form und Umfang, wie bei Hausaufgaben oder Klausuren. Diese Form wird in den Trainingsdaten garantiert enthalten sein. Ein reales Projekt verlangt neben dem reinen Fachwissen auch die Fähigkeit es in einem Kontext anwenden zu können. Genauso wird die Nutzbarkeit der Modelle stark davon abhängen wie gut wir mit dem Output umgehen können.
Am besten ein Projekt erweitern welches schon besteht. Neues einbauen und altes erweitern. Solang die nicht meine gesamte Code-Base können, bringt es mir wenig das er mir ein Leetcode Problem lösen kann. ( Hab in 4 Jahren gefühlt seltenst solch ein Problem lösen müssen )
@@MrHaggyy Klingt interessant
Wie schnell das besser wird ist krass
Und das lustige daran ist wir kriegen nur eine deutliche schwächere version öffentlich intern haben die modelle mit ganz anderen fähigkeiten
@@kecksbelit3300 das ist bei sony auch so kollege sein dad arbeitet dort und die haben dort schon playstation 13 aber die geben uns nur die 5
Die Wahrscheinlichkeit ist nicht gering, dass wir uns sehr schnell einem Plateau nähern, oder dieses bereits erreicht haben, was die Verbesserungsmöglichkeiten der derzeitigen Technologien für KI angeht. Die haben mittlerweile alle Daten gefressen und mit dem eigenen Output zu lernen läuft nicht so gut. Was die jetzt mit 4o gemacht haben, kann man vielleicht auch schon als Zeichen dafür sehen. Es ist nicht unbedingt eine Verbesserung des Modells, wenn man einfach mehr und mehr Rechenleistung hereingibt, um drei oder viermal hintereinander über die gleiche Frage nachzudenken.
Ist doch kein Wunder bei den Chips die Nvidia raushaut 440.000 Blackwell Chips an Open AI. das wird gigantisch die Rechenzentren werden Fußballfeld groß
@@un1kum42Guter Ansatz, aber die trainieren ja schon gpt 5
Ich hab ab jetzt einen Doktor in meiner Hosentasche
Defensio schon erledigt?
Du wirst später auch keinen Taschenrechner immer dabei haben!
Bin einfach hyped af. Hab meine privat entwickelte front-end library einmal durchlaufen lassen und jede klasse um durchschnittlich 5-10 parameter erweitert, das teil hat hunderte lines perfekt refaktorierten und kontexturierten code innerhalb von Minuten ausgespuckt. Ich bin so viel produktiver mit dem model, das ist einfach wahnsinnig. Mein Job ist dadurch nicht in Gefahr, eine KI kann nur grobmotorisch prompts interpretieren, visionäres reproduzieren von Anforderungen ist unmöglich durch künstliche intelligenz zu ersetzen.
Vielen Dank für die neuen Videos zu o1 das hast Du wirklich gut gemacht!
Wo sind die Zeiten hin, bei denen Frontendprogrammierung noch Copy and Paste aus Stack Overflow war..
@@dogonbb 😅
lol....ich hab legit vor 10min noch gedacht wie geil einfach das alles mit 4o in der Schule geworden ist und bekomm jetzt instant n update :D
@@valrach7303 Es ist nicht so geil für dich geworden. Dein Gehirn wird nicht mehr trainiert.
Mega authentischer tiefgreifender Content !!
Oh krass, das ist interessant. 👍 danke
Ich bin Softwareentwickler und wir haben seit 3 Monaten Copilot im Einsatz. Ich schreibe jetzt öfter Mal Prompts statt Code und das wird sicher noch mehr werden. Die Arbeit geht damit etwas schneller. Ob man nun Code oder Prompts schreibt, ist aber im Prinzip egal. Auch Prompts sind nur ne Art Programmierung. 🤷
Jungs und Mädels: wir leben in der Zukunft. Ich bin echt gespannt, wie sich das in den nächsten 5 jahren entwickelt
Mit chatgpt40 war schon fürs coden nicht schlecht , aber O one ist einfach der absolute Knaller , eine Controller Platine die ich auf einer esp32 Basis programmiert habe dauerte ca. Knapp zwei Wochen , mit O one keine 2 Tage , OOne macht viel weniger Fehler und ist Geschwindigkeits mäßig einfach komplett Irre .
Claude hat es mal geschafft, mir Code zu geben den ich nicht verstanden habe. Ich musste mir also von einer KI den Code erklären lassen ... mit über 20 Jahren Erfahrung in der Programmierung. Das Modell wird mich wahrscheinlich direkt auslachen. 🤷🏼♂️
Das Modell wird sich höflich erkunden wo du arbeitest und sich direkt dort bewerben. 😆
@@efficiencyvi8369 In den allermeisten Fällen ist das schlechter Code. Code sollte immer verständlich geschrieben sein, auch wenn man geringe Performance-Einbussen in Kauf nimmt.
@@rainair402 Na, das war super elegant. Ich wäre da nur im Leben nicht drauf gekommen. 🤣
@@efficiencyvi8369 Bitte schön wenn ich Dir dabei helfen konnte darauf zu kommen 😂 Wenn Du solchen Code nicht verstehst, dann sag Claude er ist schlecht geschrieben. Hilft mehr als klammheimlich GPT zu fragen. So wird Euer Codebase nie besser. Auch mit allem Sarkasmus nicht.
@@rainair402 Nein, ernsthaft. Das war wirklich elegant gelöst. Nachdem ich es verstanden hatte, machte es auch absolut Sinn. Das war also eher meine Codebasis, die in dem Fall Mist war.
Yeah, endlich. Jemand der sixh da mal dransetzt und ahnung hat
super geil. Hab direkt heute auf Arbeit die erste anspruchsvolle SQL Aufgabe damit erledigt (ich arbeite im BigData Bereich). Das lief wie geschmiert.
Langsam hab ich bisschen Angst um meinen Job :D
Keine angst um den Job, Lerne Promting. Promting wird eine große Geschichte
@@felikowski hoffentlich noch im Rahmen deiner Sicherheitsregelungen in der Arbeit ;)
@@Gl8Dy natürlich, ich hab nur das SQL erstellen lassen, keine Daten übertragen 🫡
@@TheSoliver84 promt engineering wird in naher Zukunft auch von KI übernommen
@@SonGoku-zr9nc Deshalb Handwerk oder Pflege
wie Menschen nicht wie Wissenschaftler ... göttlich 😆
der exakte farbton, wichtig und richtig.
Geiles Video wieder einmal! Kannst du auch mal ein Video zur IDE Cursor machen?
Also ich halte diese Bewertungen mit Doktoranden Niveau nicht für realistisch, mindestens was die fluide Intelligenz betrifft. Ich habe versucht nach genauer Anleitung einen Machine Learning Algorithmus implementieren zu lassen und dafür war o1 preview auch nach mehreren Versuchen schlicht zu dumm.
Richtig interessant
Schöner Abriss über LLMs beim Coden. Ich hatte O1 ausprobiert bin dann aber wieder zu Claude 3.5 zurück, ist einfach besser. Vielleicht verstehen Claude und ich uns zwischen auch einfach sehr gut. 😉 Mein OpenAI Abo hab ich wieder pausiert, bis was wirklich releventes kommt. Ich habe nur langsam das Gefühl ich verlerne selber zu coden, an und an muss man sich eben zwingen selbst was zu schreiben.
Geiler typ. Ich sag auch reflektieren ist passender!😅
Das heißt als UX/UI-Designer habe ich noch etwas Zeit bis ich durch KI ersetzt werde. Puh, Glück gehabt!
Wer weiß wie lange. Ich hab vieles wo ich früher unseren Designer beauftragt hätte durch KI lösen lassen. Im Prinzip kann man mit der KI wie mit dem Designer sprechen und die passt alles an. Jeder Wunsch wird beachtet und die KI ist auch nicht genervt wenn man zum 10. mal Änderungen anfragt.
@@BlueM_ Ja, wer weiß wie lange ... Die Frage müssen wir uns alle stellen.
Ich teste die Modelle immer mit der gleichen Aufgabe: Erzeuge ein Initiales Beispiel für ein vim Clone in c++ unter Linux. Das interessante ist, die Modelle werden besser. Aber es wird immer schwerer ein Problem im Code zu fixen. Sowohl für die KI als auch für den Anwender der des Tools. Und hier kommt jetzt auch das Problem, der Entwickler baut kein Verständnis für den Code auf und der Code ist zu diesem Zeitpunkt Legacy. Dies bedeutet, jede Änderung dauert Ewig und kann nur unter schmerzen durchgeführt werden.
aha gä, die KI versteht den code lass ihn beschreiben, und wie du was bestimmtes einbaust. ich sehe da jetzt keine schmerzen. die Kontext Fenster werden immer größer von daher lokales Programm und schon versteht die KI den ganzen code. ich denke früher oder später befasst man sich nur noch mit bugfix, die KI kann die Optimierungen machen.
@@TheSoliver84 Mal eine Frage selbst Informatiker oder Entwickler? Wenn ja, dann frage ich dich, wie lange brauchst du in einem dir fremden Code einen Bug zu fixen? Selbst wenn der Ursprüngliche Entwickler dir den Code erklärt. Aber dir nicht verrät wo du suchen sollst? Wenn nein, wie kommst du darauf ?
@@TheSoliver84 fremden code zu fixen ist so ziemlich die nervigste Arbeit, die man sich vorstellen kann
@@TheCefourich mache das auch und es hat sich bewährt, den generierten Code in einem neuen Chat auf Funktion und Korrektheit prüfen zu lassen. Oft genug ist GPT erst mal auf einer falschen "Gedankenspur" und ist nicht davon abzubringen.
Neuer Chat, Reset, zur Not mehrfach neuer Chat 😎. Man merkt sehr schnell, ob er diesmal in der richtigen Spur ist
@TheCefour, Ich bin sowohl Informatiker als auch Entwickler, Aktuell betreiben wir 10 Server mit 20 Nvidia H100 GPUs und haben eigene Modelle entwickelt, an denen wir bereits seit 2019 arbeiten (feilen). Zusätzlich haben wir OpenAI als API integriert, wodurch unsere Modelle miteinander kommunizieren können. Wir sind auch Partner von Replit und Coursor, was uns ermöglicht, diese Plattformen direkt anzubinden. Unser Fokus liegt auf der Entwicklung von Softwarelösungen für den Pharmabereich es ist das führende Unternehmen.
Was mich interessieren würde: Wie Leistungsfähig ist das Modell, wenn du es strukturierte Daten analysieren lässt?
Heute habe ich o1 verwendet, um bestehende Codes zu refaktorisieren und zu optimieren. Das hat super funktioniert. Allerdings war das Neuschreiben bei der Problembeschreibung eher unbefriedigend.
Vorhandenem. Was ist da los?
@@i-am-the-slime Niemand interessiert sich für deine Klugscheisserei.
Mal ehrlich, in einem Jahr schreibe ich meine Bachelorarbeit in Informatik. Bis dahin werden die Modelle noch viel besser sein. Und sie sind jetzt schon besser als ich selbst.
Ich frag mich echt ob es sich noch lohnt die BA zu schreiben?
Nope, geh ins Handwerk oder die Pflege, alles andere gehe den Bach unter
@@Xcf_341 Wenn alles andere den Bach runter geht hat aber auch keiner mehr das Geld für Handwerker oder Pfleger. Das müsste dann steuerfinanziert werden, aber die Steuereinnahmen sind dann ja auch weg.
Wenn du soweit denken willst, Roboter sind auch schon bei BMW in der Fabrik 🤷
Gibt noch genug Aufgaben für Informatiker neben programmieren
Keine Angst ihr bekommt eh keine vernünftigen Vorgaben im echten Leben.
@@Xcf_341 Sagte der Pfleger🤡
Danke
Likes für den Like-Gott, Kommentare für den Kommentarthron.
Bin aktuell im 3. Semester von Informatikstudium mit dem Ziel softwareentwicklung und habe mitlerweile wegen Ki jeden einzelnen Tag zweifel ob ich weiter machen soll oder doch lieber was im Handwerk machen sollte..
Man muss als Informatiker doch kein Entwickler werden. Zudem wird Softwareentwicklung generell eh nicht so gut bezahlt wie andere Bereiche in der IT.
@@Robi-m4d du musst ja trotzdem wissen und vor allem verstehen was dein code macht und dann ggf anpassen
@@sansmoi4168 Welche Bereiche in der IT kannst du empfehlen?
Es gibt echt viele spannende Unterbereiche, Security, Projektmanagement, Data science, administration
Ich hab deswegen auch den Bereich etwas gewechselt. Bei uns werden viele Arbeiten mit Frontend Fokus über KI generiert. Klar überprüft man den Code noch oder muss was korrigieren. Aber es werden deutlich weniger Entwickler mehr benötigt.
Bei der ICE bucket challenge ist meine ki abgeraucht 😞 sad to say 😂
bin mal gespannt wie es aussieht, wenn ich das endlich testen kann
Geiler scheiß...direkt mal schauen ob er mein Logik problem lösen kann an dem ich jetzt schon knapp ne woche sitz 😅
GPT o1 kann nahezu perfekt promten in GPT 4o - that's amazing
Wir brauen das als open source
Ist es denkbar, ein ganzes Unternehmen (KMU Level) mit allen Legacy Applikationen und Business kritischen Schnittstellen einzulesen, um Applikationen in den Griff zu bekommen, deren Autoren nicht mehr im Unternehmen sind (und tiefes Business Logik Verständnis mit sich nehmen).
Würde sagen nein. Auch die KI hat kein Verständnis der Business Logik, sie kann nur mit dem vorhandenen code arbeiten. Und ich gehe Mal davon aus, dass nicht alles bis ins kleinste Detail beschrieben ist, warum Dinge so gehandhabt werden wie sie's tun, denn dann könnte das Programm ja auch jmd warten ;) und das wäre dann auch unter der Annahme, dass die KI ein komplett fehlerfreies und perfektes Resultat liefern kann. Hilft nix, stellt jmd ein der sich durchwühlt und das Ding wieder wartbar macht, oder ersetzt es wenn möglich Stück für Stück durch wieder wartbare Software. Dabei baut die Person auch automatisch das Wissen mit auf und ist ein wertvoller Teil bei der Planung von Erweiterungen/Bugfixes.
Ich werde nächstes Jahr im Oktober Informatik Studium beginnen - das heißt Oktober 28 Bachelor und wenn alles gut läuft Oktober 30 Master- wo denkst du wird KI Ende 2030 stehen ? Lohnt es sich noch ?😊
Lässt sich mit das o1-Modell ein maßgeschneideter Computer für deine Oma erstellen? Also es werden nur die Programme installiert, die deine Oma braucht, für Updates ist keine Passworteingabe erforderlich. Die Updates erfolgen automatisch aber nicht ungefragt.
Sie erhält auch eine ausgedruckte Anleitung. Als Betriebssystem schwebt mir NixOS vor. Da deine Oma das Betriebssystem auch selbst installieren soll, braucht sie auch dafür eine ausgedruckte leicht lesbare Anleitung.
Folgende Challenge ist FEHLGESCHLAGEN: Ich bat GPT-o1 darum, ein Python script zu schreiben, dass die aktuelle GPT API benutzt um auf eine Frage zu antworten. Dazu habe ich sogar einen Link zur aktuellen Dokumentation mit angefügt. Leider hat es GPT-o1 nicht geschafft. Erst nach ca. 15 (!!!) Korrekturhilfen. Nachdem es dann mal einigermaßen funktioniert hatte, bat ich um eine kleine Anpassung und schon war wieder alles im Eimer.
Ein Agentensystem gibt es doch schon in der SAP BTP das zusammen mit LLMs arbeitet und Anforderungen löst.
Ich sehe nur spezifisches Domainwissen innerhalb eines Unternehmens als Vorteil ggü der KI an allerdings muss man sich dieses erst mal aufbauen. Hier haben oft auch nicht die Entwickler die Nase vorne sondern operative Mitarbeiter. Beispiel: Einkaufsabteilung mit eigener Analytik-Stabstelle. Die Analytiker werden sich von ihrem Job verabschieden können. Die Einkäufer, mit dem spezifischen Domänenwissen, nutzen KI selbst für ihre Analysen und Verhandlungen mit Lieferanten. Change my Mind
Kann man die genutzten internen prompts für eine Antwort abfragen?
Bei chat gpt fällt mir ganz stark auf Funktionen und Konzeptionen sehr gut gemacht wird. Problem ist nur wenn ein Entwickler nicht Grund Struktur und Prinzipien kennt und natürlich was er überhaupt machen soll. Ist leider mir schon öfter in der Wirtschaft aufgefallen
Kann das vernünftig PureScript?
Lass die KI eine Challenge erstellen, die du lösen musst. Solange, bis du es nicht mehr schaffst :P
mögliches Angstszenario 🤔 Je besser das Ding wird, umso weniger werden programmieren, umso weniger Programmierer wird es geben, und irgendwann versteht kein Mensch mehr was das Teil überhaupt macht - bzw. wie man mögliche Fehlentwicklungen korrigieren könnte. Was dann?
Was dann?
Dann können Leute wie ich ohne Proggeraudbildung aber Kenntnis komplexe Projekte selbst aufbauen 😉
Alles eine Frage des Blickwinkels 😎
@@huibert_devet das auf jeden Fall 😀 und ich hab sicher keine Angst vor KI. Trotzdem wäre es glaub ich sinnvoll auch mal an die andere Seite zu denken 🫣
@@Hilfe mache ich ja 😉,
Du an Deine, ich an meine
In gewisser Weise ist das eine Demokratisierung wie "damals", als uns die PC und Mac erlaubten, mit den Möglichkeiten dieser neuen Technik Firmen zu gründen, was wir sonst nie hätten tun können. Seit 1998 mit dem Internet kann ich mich darum als Lebensunterhalt im Web tummeln 🤗
Wer werden
A) assimiliert werden.
Oder
B) terminiert.
P.S.: Ich tippe auf B.
Also ich nutze das o1 Model momentan für webentwicklung ist super für Optimierung und refactoring neu Entwicklung ist teilweise noch nicht da einfach weil die Anforderungen relativ genau definiert sein müssen. Ich bin tatsächlich obwohl ich es viel nutze noch nicht in die Limits gerutscht.
Eigentlich nicht, den halluzinieren ist System immanent.
Ich liebe nichtlineare Tensorrechnung. Dagegen hilft keine Statistik oder Prompts.
AI requires more electricity to complete even simple tasks compared to typical search queries. In the U.S., about 60% of that electricity comes from burning fossil fuels, which is the primary driver of climate change
wow cool
claude ist aber für mich Laien in meiner Erfahrung viel besser und wenn ich next js app haben will dann. Ist v0 noch besser, aber allgemein glaube ich dass o1 bestimmt viel besser sein wird sobald limitations weg sind.
Lohnt sich ein Software-Engineering-Studium überhaupt noch oder sollte man eine andere Vertiefung wählen?
Andere Vertiefung bringt da nicht viel, da du wohl kaum der einzige mit der Idee sein wirst.
Gibt auch noch viele andere Themen für Informatiker, die nach wie vor relevant bleiben 😊
@@TheMorpheusTutorials Danke für die Antwort. Inwiefern sollte das meine Studienwahl beeinflussen? Es gibt viele Richtungen von "Angewandter Informatik" zu "Software Engeering" zu "IT Sicherheit" usw.
Immer Informatik. Software Engineering ist ein Scam. Uncle Bob 🤮
Immer diese Panik, ich studiere auch gerade Informatik. Es gibt einen massiven Mangel allein in Deutschland durch die wegbrechenden Seniorentwickler der Babyboomer. Das kann Ki nur Ansatzweise auffangen. Und mit Ki muss man immer noch coden und implementieren es geht nur schneller und effizienter. Trotzdem braucht man sich da keine Gedanken um langsamer steigende Löhne oder ein überangebot zu machen es wird eher noch knapper als es jetzt schon ist. Der Informatikerbedarf wird in den nächsten 20 Jahren expotentiell zunehmen und es kommen nur linear leicht mehr nach.
Was wird KI in 10 oder 20 Jahren können ?
top
50:24 wenn ein O2 Modell kommt, ziehen dann auch Vodafone und Telekom nach?
Sorry, geht schon wieder
Danke, dass du da sogar mitmachst ❤️😂
Hello my fellow Coding nerdies. Also ich bin gerade am Anfang einer Umschulung zum Anwendungsentwickler und stelle mir die Frage ob wir dann bald arbeitslos werden wenn Ki vermeidlich besser und schneller programmieren kann als wir
Wo findet man diese Coding Challenge?
Nur kurz: Das Modell heißt nicht ChatGPT o1 sondern OpenAI o1 :)
Die 30 Request hatte ich nach 4 Stunden schon voll, daher schwer ausgiebig zu testen, aber mittlerweile würde ich fast sagen es ist schon mit einem durchschnittlichen Senior zu vergleichen, während es früher gefühlt nur ein sehr schneller Junior war. Oft hab ich 20-30 diskutieren müssen, bis ich eine Lösung in der Qualität habe die ich haben wollte. Als Senior mit 30 Jahren Erfahrung löse ich aber ja üblicherweise aber auch keine leichten Probleme. Aber man merkt wirklich einen deutlichen Qualitätssprung und das freut mich. Aber es sind immer noch viele Fehler drin. Am Ende ist es ja vermutlich nicht intelligenter geworden, sondern evaluiert nur mehrfach um die Ergebnisse zu verbessern. Und das lest sich vermutlich nur beheben wenn man einfach eigenen Trainingsdaten erstellen bzw. die Modelle einfacher selbst anpassen kann.
Wurde auf 50 pro Woche erhöht und das Mini 50 am Tag
Das Niveau auf dem GPT sich selbst prompten kann ist enorm. Der Ansatz wurde ja schon manuell mit anderen Modellen gemacht. Allerdings gehe ich stark davon aus das Open AI eine Art von Teilen und Herrschen hierbei verwendet.
Hunderte Juniors richtig geprompted können auch sehr viel bewerkstelligen.
Also bin ich bald doch arbeitslos
Das neue Modell schafft also jetzt eine coding challenge die schon ausgiebig an vorherige Modelle verfüttert wurde?
Und das verwundert?
das ding ist zu blöd firefox auf colab zu installieren und es hängt sich immer auf. also nach einer minute brech ich dann einfach ab und nutze mini
Offtopic Frage:
Hat jmd eine Lösung (Win, PC), wie man ausgewählte dateien nur anhand des namens und ohne dateiendung (zB aus einer liste) aus einem ordner in einen anderen kopiert?
Mit einer batch lösung finde ich leider nur ansätze dateien mit endung zu kopieren ...
Was spricht dagegen, einfach ChatGPT zu fragen?
@@Dzatoah jo, nicht dran gedacht, thx!!!
@@Vision-IT_1 hahahaahahaaha
Es ist ja schon lange klar das die Transformer Modelle mit Iteration viel besser werden. Problem ist halt die benötigte Rechenleistung. Da muss Nvidia (oder wer auch immer) noch sehr viel schnellere NPU's entwickeln. Damit müssen dann neue Rechenzentren gebaut werden. Das kostet mehr als der gesamte Staatshaushalt von Deutschland und China zusammen. Ich glaube 7 Billionen Dollar wollte Sam Altman, CEO von OpenAI, dafür einsammeln. Absoluter Wahnsinn.
7 billion in amerika =. 7 milliarden
@@Denis-hn5cx Grundsätzlich im Englischen. Million = Million, Billion = Milliarde, Trillion = Billion.
Sam möchte 7 Mrd. investieren. Das ist noch deutlich weniger als die 9XX Mrd. die Deutschland jährlich ausgibt, oder die 1'5XX Mrd. die China dieses Jahr ausgeben wird.
Open AI wird dabei vor allem auf viel mehr Chipfläche aus sein, da der Stromverbrauch von Chips exponentiell mit dem Takt geht. Ist sehr vereinfacht gesprochen auch der große Unterschied zwischen A100 und RTX Karten.
Muss man jetzt nur noch 10x fragen statt 20x damit man guten code bekommt ?
So ungefähr.
Aber dagegen haben andere Modelle keine Chance
Man kriegt nie guten Code, aber Boilerplate. Viel anstrengender die Scheiße von dem durchzulesen als ihn selbst zu schreiben. Umgekehrt wäre das viel hilfreicher.
Leider nein. Gegen Halluzinationen gibt es kein Fix. Das ist eine Eigenschaft von neuronalen Netzen. Ist eigentlich das gleiche Problem wie bei Wetterberichte.
Neuronale Netze sind nichtlineare Gleichungssysteme, also chaotisch.
Das heißt Logik macht LLM Probleme.
Große Projekte wird immer ein Problem werden.
Den meisten Entwickler wird LLM nicht helfen, weil die Daten in die USA gehen. Also ein No-Go sind.
post-work-society incoming
oder auch post society work ;)
Und am Ende sind es doch nur statische Wörtertaschenrechner, die es aktuell nicht schaffen stichfest zu begründen. Macht mir Angst dass eine irrelevante Information mehr dazu führt dass die Modelle aufeinmal grundlegend falsche Aussagen treffen.. das betrifft aber alle Modelle aktuell
Ich habe einen Strike bekommen, weil ich nen Fehlerlog reingeworfen habe 😅
Schade, dass hier kritische Kommentare gelöscht werden, dann kann ich mich auch verabschieden. Tschüss
Perfekt, das als Kommentar zu verfassen
Wenn du links einbaust oder in den Filter von UA-cam fällst, wird es automatisch gelöscht, da hab ich nicht Mal Kontrolle darüber. Ich selbst habe unter diesem Video nicht 1 Kommentar gelöscht, wie du an diesem vielleicht merkst
@@TheMorpheusTutorials Ich habe keinen Link hinterlassen. Nun gut, wenn dem so ist, entschuldige ich mich.
Davin hat sich doch als Scam herausgestellt
Noch, auf 5 Jahre fliegen hier einige raus
pareto lässit grüßen
Das o-Modell hat meiner Erfahrung nach einen Hang zum völligen umcoden, und lässt essenzielle Teile des Codes weg, besonders die, die es nicht versteht. Das o1-Modell kann ich nicht beurteilen, habe keinen Zugriff darauf. Habe OpenAI verlassen, weil die Erfahrung einfach nur nervig war.
4o mochte ich tatsächlich auch nicht so gern zum coden, da fand ich Claude tatsächlich besser
Hallo Morpheus, welchen KI Bot würdest Du für HTML-Programming benützen?
@@TheTaimon und wenn es anspruchsvoller wird. Meine Coding-Beispiele haben schon ziemlich viele Zeilen und diese Zeile sprich APP's wollte ich dann mit einem KI-Bot noch weiter verbessern und dann passiert es meistens, dass die Zeilen zu lang sind und daher nicht verarbeitet werden können. Was dann natürlich ärgerlich ist. Vielleichst hast Du mir da noch einen Tipp?
@@andrinSkyleider habe ich bisher hier keine guten Erfahrungen gemacht. Wenn ich Zeit habe teste ich mit o1. Aber mein HTML Code ist vermutlich auch kein gutes Beispiel 😂
Wenn es gut wäre, würde es sich weigern Python zu schreiben.
Frage an Morpheus: Was glaubst du, wie lange AI überhaupt noch Code generiert, anstatt sofort Maschinencode auszuspucken?
Maschinencode ist auch Code
01001110 01101111 01110100 00100000 01101100 01101111 01101110 01100111
Das ist jetzt schon eine Frage nach welcher Abstraktion du haben möchtest.
GPT kann Maschinencode generieren. Allerdings braucht das deutlich mehr Tokens als eine höhere Sprache und dürfte für kaum jemanden lesbar/prüfbar sein.
Und wenn dein Code auf unterschiedlicher Hardware laufen soll, ist es ein Nachteil.
@@MrHaggyy Wie kann ich das denn erreichen, dass GPT Maschinencode erzeugt? Ich hab es ca. 20 mal immer wieder aufgefordert das zu tun und es hat sich vehement geweigert.
Punkto Prüfbarkeit und unterschiedliche Hardware sind Kinderkrankheiten, die in 20 Jahren keine Rolle mehr spielen werden, schätze ich mal. Spätestens wenn man o1 sagt, dass es einmal für jedes OS den Maschinencode erzeugen soll, hat sich das selbst heute schon erledigt. Und die Prüfung könnte durch eine entsprechende Prüf-KI durchgeführt werden. Die einzige Frage ist, ob es in 20 Jahren KI-Anbieter geben wird, die entsprechend vertrauenswürdig sind. Aber technisch sehe ich da nicht die geringsten Schwierigkeiten, wenn man berücksichtigt wie schnell die Entwicklung allein in den letzten 3 Jahren gewesen ist.
Größere Projekte nie. Logik ist die einzige Schwäche von LLMs.
Mit nur 30 Nachrichten pro Woche ist das neue Model aktuell noch komplett nutzlos.
Wurde heute aktualisiert, siehe Video 😊
Sprech bitte GPT englisch aus. Echt unangenehm auf deutsch 😅
Klar schlägt es die, was an den Trainingsdaten liegt!!! MANN EY!
warum eig noch studieren wenn ki in einem jahr eh alles kann
Ich hab das auch mal getestet gehabt mit meinem zig Projekt und o1 konnte mir leider auch nicht helfen. Musste auch ständig Code korrigieren. Und das Projekt gibt es auch ganz sicher schon 100 mal, also war jetzt nix was es noch nie gab, wo die ja eh versagen, aber zig ist definitiv nicht so seins.
Ja man geht auch nicht hin und macht so Code Generierung als one shot mit nem dicken Modell. Ich empfehle hier einfach Plandex und/oder Aider in Kombination mit Continue zu nutzen. Plandex/Aider um die Projektplanung abzudecken und Continue um dann Finetuning zu machen. Schön mit nem yi-coder Modell da kostet der Kontext nicht soviel, kannste auf 20 GB VRAM locker 24K context starten, da packste schon das halbe Projekt rein. Plandex muss man leider mit OpenAI oder Claude nutzen, aber das Resultat ist unglaublich (auch ohne o1 haha).
Die Dinger können keine guten Sprachen. Wie die meisten Entwickler
du musst halt nach wie vor genau beschreiben was du möchtest. Wenn du den code nicht selbst erklären kannst, kann o1 ihn auch nicht schreiben. Das ding ist kein ersatz für Entwickler, sondern eine virtuelle compiler ebene. Du schreibst nur eben keinen code mehr, sondern prompts. Das heisst nicht dass du dich zurücklehnen kannst und nichts mehr tun musst.
@@hitbox7422 Ich wollte das er eine Funktion schreibt, die die höchste Pokerstraße (also 5 in einer reihe) aus 7 Karten gibt, aber berücksichtigt, dass ein Straight Flush mehr gewicht hat als ein normales Straight mit vielleicht höherer Abschlusskarte. Ein Szenario das schon mehrfach programmiert worden ist. Was soll ich dem Poker erklären, wenn dann erklärt GPT MIR das, würde ich erwarten.
Diese Aufgabe kann kein ChatGPT 4o, kein o1, kein Claude, kein gar nix. Jede AI ist zu blöd dafür. Da is nix zu erklären.
@@MrOnePieceRuffy dann unterteile das Problem. Ich bin Front-End Entwickler und schreibe fast alle meine Libraries selber, ich hasse nichts mehr als unnötige Funktionen die im selben scope liegen wie das was ich davon verwende.
Wenn ich eine Klasse mit 20 Parametern auf einmal requeste kommt nur dünne Soße raus, egal wie präzise die promts sind.
erster
Bin ich dumm? Wo ist der Unterschied zu dem anderen Video? 😅
Coding challenge, refactoring und Co 😂
wo guckt der mann eigentlich immer hin?
Auf seine slides
@@TheMorpheusTutorials guter mann
@mihao-runs weird boy
Geht ins Handwerk oder die Pflege, sage ich euch wie es auf 15 Jahre ist.
Wer zahlt denn die Handwerker und Pfleger wenn die ganzen Büroarbeiter arbeitslos zuhause sitzen? Die haben genug Zeit um das nötigste selbst zu machen und können auch selbst auf ihre ältere Verwandtschaft aufpassen.
Bei dem lächerlichen Lohn arbeitest du nur für den Porsche deines Chefs. Und für die Selbstständigkeit braucht man einen Meister, was 10 Jahre dauert, und dann sechsstelliges Startkapital. Keine Lösung.
Handwerk: ja.
Pflege: auf keinen Fall.
Lasse mich doch nicht für knapp über 20€ zum Sklaven absurder Personalschlüssel machen. Dann noch Schichtarbeit, die einen auf kurz, oder lang, zum physischen und mentalen Krüppel macht - nein, danke.
@@forben3523universelles Grundeinkommen. Muss früher oder später eh Kommen, sonst hast du 20% Arbeitslosigkeit wegen KI
@@forben3523 Zeit ja, Bock nein. Das ist der Key
ist der hype um promt engineering durch Chain-ofthought wieder ausgebrannt?
Kann man nicht ein loop bauen, dass chat gpt selbst sein eigenes Modell entwickelt, dann wäre das Ergebnis ja besser als jetzt, und das sukzessiv.
In Problemen die auf ein Optimum hinaus laufen funktioniert das. Z.b. bei Schachbots hat man sie irrsinnig viele Partien gegen sich selbst spielen lassen.
Manche Probleme wie z.b. Logik verlangen aber einen festen Datensatz an richtigen und falschen Beispielen. Hier ist KI im Lernen nicht hilfreich, weil entweder ist die Antwort falsch oder richtig.
Und dann gibt es noch das Problem der Bennennung. Sozusagen die Vokabeln eines Fachgebietes. Hierbei müssen wir Menschen uns vor allem erstmal einig sein, wie das Schweinchen heißen soll. Und danach müssen wir es in die Trainingsdaten richtig einpflegen.
Würden wir das Modell sich wahllos Informationen aus dem Internet ziehen lassen, dann würde das Modell wieder vom Level eines Doktoranden auf das Niveau eines üblichen YT-Kommentares oder Redit Posts abrauschen.
Aber auf dem Weg zu einer AGI müssen wir auch das Lernen der Modelle automatisieren.
Das model basiert nicht auf Optimisierungstechniken (oder zumindest nur teilweise), sondern auf Datenmengen. Je mehr Daten du hast, desto mehr Kontext kann generiert werden. In diesem fall ist es nunmal so das theoretisch alle praktisch existierenden Daten erfasst wurden, weshalb eine Optimierung technisch nicht mehr möglich ist.
SelfTaughtReasoningAWEberry