Deepseek Coder v2: Outcoding GPT-4!

Поділитися
Вставка
  • Опубліковано 22 січ 2025

КОМЕНТАРІ • 70

  • @momotabaluga2417
    @momotabaluga2417 7 місяців тому +2

    Benchmarking Format ist geil!

  • @terrax8101
    @terrax8101 7 місяців тому +2

    muss sagen finde vor allem die Punkte: Refactoring, Testing und Dokumentation als unterstützung mega wichtig unter anderem für Private Projete als auch für Firmen, dadurch kann man die Qualität des codes schlagartig verbessern, vor allem wenn viele Manager immer wieder sagen man solle doch bitte noch dieses und jenes Feature mit reinbauen obwohl der Code ohnehin schon recht katastrophal aussieht

  • @jensblackpanther2948
    @jensblackpanther2948 6 місяців тому +1

    Wie immer Klasse Video 👍🏾😁

  • @GeorgDahmen-i9h
    @GeorgDahmen-i9h 11 днів тому

    Es scheint, dass es eine neue Version von DeepSeek, namens DeepSeek-V3, gibt. Es wäre interessant, sich die Verbesserungen und Neuerungen anzuschauen, die mit dieser Version eingeführt wurden. Vielleicht bietet sie weitere Vorteile im Bereich des Codens und der Leistung.

  • @kibabyte
    @kibabyte 6 місяців тому +2

    Ein Tutorial wie man das Modell als Copilot einbindet wäre sehr interessant!

  • @DonHiki
    @DonHiki 7 місяців тому +1

    Gut gemachte Videos ❤

  • @MeinDeutschkurs
    @MeinDeutschkurs 7 місяців тому +5

    Cedric, du sitzt zu nah am Hintergrund, deshalb kommt es zum Spill. Wenn möglich, korrigiere die Farbe in der Kamera. (Gain/Tint) Dann kannst du den Grünanteil etwas aus dem Bild nehmen, bevor du den GreenScreen-Filter anwendest.
    Licht-Tipp: beleuchte den Hintergrund, und stell dafür die ISOs in der Kamera höher.
    Dann wirkst du nicht mehr, als hättest du etwas Unverträgliches gegessen. 🎉

    • @millalaure
      @millalaure 7 місяців тому

      lol ja, stimmt

    • @dura2k
      @dura2k 7 місяців тому

      Wait, er nutzt einen greenscreen? Das sieht wie dieses typisch (schlechte) mi-ausgeschnittene aus.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  7 місяців тому +5

      Nvidia Broadcast, kein Greenscreen tatsächlich, deshalb ist beleuchten auch schwer. Ich könnte es kleiner machen und mehr einen auf late night show machen, aber ich hoffe dann ist's nicht zu klein 🤔

    • @MeinDeutschkurs
      @MeinDeutschkurs 7 місяців тому

      @@TheMorpheusTutorials wieso gibt es dann spill??? Leuchtet dir dein Monitor so arg ins Gesicht?

  • @MrMoonsilver
    @MrMoonsilver 6 місяців тому +1

    Hey, der Kontext wurde eben auf 128k erweitert! Macht deepseek zum besten preis leistungs performer. Einzig der Speed ist nachteilig.

  • @BL4ckViP3R
    @BL4ckViP3R 7 місяців тому +1

    Bei vier chinesischen Spitzen-Codern, die das Open-Source-Projekt hochgezogen haben (einer davon hat an 4 Tencent-, die zweite an Alibaba-Projekten teilgenommen) und es fließt wirklich kein Client-Code durch ein Hintertürchen?

  • @mydetlef
    @mydetlef 7 місяців тому +1

    Ich habe wohl in der Schule nicht richtig aufgepasst: Wird die KI (Chatgpt, Deepseek usw.) durch meine Eingaben trainiert? Also wenn ich deren Fehler in ihren Python Codebeispielen erläutere und sie auffordere neuen Code zu schreiben? Nebenbei: Deepseek und ChatGPT brauchten etwa genauso lange eine Routine zur Analyse eines Dateinamens für ein Videofile (mit Season/Episode/Tiitel usw.) zu schreiben. Ich brauchte bei Beiden jeweils ca. 10 Iterationen wenn die Daten über den Dateinamen random verteilt und teilweise nicht vorhanden waren. ChatGPT war höflicher in den Antworten. Deepseek sehr sachlich.

    • @ozelot131
      @ozelot131 5 місяців тому

      Bei ChatGPT kannst du einen provisorischen (temporären Chat) nutzen. Bei diesem kommt diese Meldung "Dieser Chat erscheint nicht im Verlauf und wird nicht zum Trainieren unserer Modelle verwendet. Aus Sicherheitsgründen bewahren wir eine Kopie bis zu 30 Tage auf." Wenn bei diesem explizit steht, dass er nicht zum Trainieren verwendet wird, kann man davon ausgehen, dass der normale zum Trainieren verwendet wird. Das war aber auch schon immer ein Kritikpunkt an den Modellen, das sie unter Umständen Firmengeheimnisse ausplaudern könnten, wenn man mit ihnen darüber schreibt

    • @mydetlef
      @mydetlef 5 місяців тому

      @@ozelot131 Bei allem, was kostenlos ist gehe ich davon aus, dass die Leute ihr Geld durch irgendwas anderes als die Gebühr verdienen müssen. Passworte und geheime Tricks sollte man niemals Dritten mitteilen (auch keinem Bot). Fürs Coden nutze ich derzeit parallel Gemini Chat (kostenlos) das Plugin von Gemini für vscode auch (noch) kostenlos. DeepSeek Coder V2 (kostenlos), Mistral AI (die kostenlose Chatfunktion mit Codestral), ChatGPT (die kostenlose Chatvariante) und die API von ChatGPT (kostenpflichtig). Bei der ChatGPT API wird klargestellt: Löschen aller Daten nach 30 Tagen und keine Verwendung fürs Trainieren. Meine aktuelle Bewertung: Gemini Chat ist schlecht im Verhältnis. Da bekommt man schon mal zu "hören": Ich bin ein Chat Bot und kann Dir da nicht weiterhelfen. Oder: Auf dem Bild sind Menschen das darf ich nicht verarbeiten. DeepSeek ist geschwätzig und hatte bei einigen Python Fragen Probleme, aber insgesamt bin ich zufrieden damit. Gemini PlugIn vscode: Ich habe keinen Vergleich mit Github Copilot aber es hilft schon bei einigen Sachen - wirklicher Produktivitätsgewinn? Eher mittelprächtig. Teilweise sehr gut und andererseits naja. ChatGPT ist auch in der kostenlosen Variante eine gute Hilfe. Wenn man dem eine Zeichnung eines Fensters gibt und sagt, mach mal daraus eine TKinter App dann funktioniert das ganz gut. Aber auch Mistral AI geht, wenn man kein Bild für die Fragestellung braucht. Ich selber nutze sie alle (wie geschrieben) parallel. Einer bekommt die erste Frage. Z.B. wie mache ich in python eine Backgroundworker Klasse wie es sie in C# gibt um mit einer TKinter app Aktionen im Hintergrund auszuführen. Er gibt dann eine Antwort (Gemini hat geantwortet: Keine Ahnung, bin Chatbot aber erst nachdem schon die Hälfte des Beispielprogramms in meinem Chatverlauf zu sehen war). Ich gebe dann die Frage an die anderen Bots weiter. Greife die eine oder andere Lösung auf und führe dann den Chat mit den neuen Informationen bei den verschiedenen Bots weiter. Das alles funktioniert gut. Ich lerne dabei vieles und erspare mir ne Menge Tipparbeit. Hierbei ist der Produktivitätsgewinn gegenüber stackoverflow und Webrecherche enorm. Wenn die also damit den Bot trainieren - meinetwegen.
      Außer ChatGPT und Gemini hat keiner von denen eine Image Upload Funktion und das ist bei GUI-Fragen hinderlich.
      Mein aktuelles Fazit: Wenn man keine Ahnung von der Sprache und/oder Coden hat dann sind die Dinger genauso hinderlich wie hilfreich. Weil sie immer noch ne Menge Unsinn verzapfen und man halt genau sagen muss, was man haben will. Und dafür braucht man halt Erfahrung.

  • @ImaSkillissue
    @ImaSkillissue 7 місяців тому

    Sieht auf jeden Fall interessant aus

  • @EdithMartin-u7p
    @EdithMartin-u7p 7 місяців тому +1

    Hallo Cedric,
    danke für diese Präsentation.
    Gruß, Enigma-pi

  • @annaj.4740
    @annaj.4740 6 місяців тому +2

    Algostreichler 💝

  • @TheHeroCrafter
    @TheHeroCrafter 7 місяців тому +3

    Ich finde so eine video art sehr gut, das einzige was mir noch auffällt ist das du (dein Oberkörper) nicht so gut ausgeschnitten ist

  • @ratside9485
    @ratside9485 7 місяців тому +5

    Was ist, wenn sie das Ding mit Code trainiert haben, der evtl. Hintertüren verursacht?

    • @st_bakerino
      @st_bakerino 7 місяців тому +4

      Dann dürfen wir unseren Kopf halt nicht ganz ausschalten während wir mit einer KI arbeiten

    • @rafaelsundorf8053
      @rafaelsundorf8053 7 місяців тому

      Die gleiche Frage stellt sich bei ChatGPT, Claude, llama (und Derivaten) sowie jedem anderen Modell das man nicht selbst trainiert hat

    • @ratside9485
      @ratside9485 7 місяців тому

      @@rafaelsundorf8053 Ist schon ein Unterschied, ob Microsoft/Meta etwas finanziert/trainiert oder die Kommunistische Partei Chinas.

  • @Ph34rNoB33r
    @Ph34rNoB33r 7 місяців тому +1

    Nices Natsu Matsuri Shirt 🤘
    So ein KI-Modell lokal wäre schon nett (erst mal die Hartware haben). Ich denke bei der Kontextlänge müsste man aber tricksen, nur die aktuelle Datei im Speicher behalten und von den anderen eine Zusammenfassung oder so. 32k Tokens ist für ein Softwareprojekt echt nicht viel, in meinem letzten Projekt gab es .jsp-Dateien mit 10k Zeilen *pro Funktion*.

    • @homosuperior1337
      @homosuperior1337 7 місяців тому

      Du hast mehr Ahnung. Klär mich mal auf.

  • @TT-pi8ww
    @TT-pi8ww 7 місяців тому +7

    5:50 Ist Assembler für die KI nicht die einfachste aller Sprachen? Da muss sie nicht so tun als wäre sie ein Mensch um zu versuchen unsere komischen Hochsprachen zu verstehen. 😀

    • @stevenko1845
      @stevenko1845 6 місяців тому +1

      Netter Gedanke, aber für eine KI ist am einfachsten, worauf sie trainiert wurde. Da Assemblercode in der Regel wesentlich länger ist als Hochsprachencode, ist zudem der generative Aufwand höher.

  • @emirrr
    @emirrr 6 місяців тому

    Kannst du ein Video zu i2p machen?

  • @Zvend
    @Zvend 7 місяців тому

    Hätte mir gewünscht wenn du die KI noch verlinkt hättest

  • @TheSchildkroet
    @TheSchildkroet 7 місяців тому +20

    DeepSeek scheint Chinesisch zu sein. Das würde auch den Preis erklären.

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  7 місяців тому +7

      True, lässt sich aber trotzdem lokal ausführen 🤔

    • @TT-pi8ww
      @TT-pi8ww 7 місяців тому +1

      Das ist ziemlich schlecht. Programmierung ist (oder war?) noch eine der wenigen Disziplinen in denen China nicht führend ist.

    • @TVPInterpolation
      @TVPInterpolation 7 місяців тому

      @@TT-pi8ww die meisten interessanten paper zum Thema AI kommen aktuell aus china muss ich sagen. ich würde da auf grob 80% chinesisch schätzen. Sind viele aber ziemlich gut.

    • @karlderkafer3269
      @karlderkafer3269 7 місяців тому

      Hat auch die ganze China Zensur und Propaganda intus. Müll.

  • @Joly0
    @Joly0 7 місяців тому +3

    Ich habe DeepSeek-Coder V2 mit Ollama und OpenWebui schon lokal getestet, aber iwie schweift das immer mal wieder vom Englischen ins Chinesische ab. Ansonsten gutes LLM

    • @jantube358
      @jantube358 7 місяців тому

      Wie gut geht es mit deutschen Eingaben und deutschen Kommentaren im Code um?

    • @rafaelsundorf8053
      @rafaelsundorf8053 7 місяців тому

      Hatte noch nicht das Problem das ins chinesische abschweift

  • @satoruitadori379
    @satoruitadori379 День тому

    wann video zu v3 und r1? :o

  • @Sonntagssoziologe
    @Sonntagssoziologe 7 місяців тому

    Bei mir hatte Deepseek gegen ChatGPT 3.5 versagt, als es um Metadaten in SPSS-Dateien ging.

  • @SezginRuhi
    @SezginRuhi 7 місяців тому

    Danke
    Danke

  • @jaydi6223
    @jaydi6223 7 місяців тому

    like und kommentar ✅

  • @HellGhostEvocator
    @HellGhostEvocator 7 місяців тому

    für mich ist immer noch gpd4 am besten gpd4o ist zu fokussiert und ist zu unkreativ und missachtet anweisungen. mistreal fand ich auch irgendwie bisher nicht überzeugend, aber jetzt hab ich ja wieder eine neue KI zum Testen, danke :)

  • @NoName-zx6pv
    @NoName-zx6pv 7 місяців тому

    Ein HowTo wäre cool wie z.B. "How To Install" oder "How To Use". Es muss keine ausführliche "HowTo" sein, einfach mal für Leute wie mich den Einstieg vereinfachen, wo man die Informationen (Doku) findet oder wie die Doku zu verstehen ist. Es kann einen Anfänger manchmal erschlagen :) Falls du es bereits vorhanden ist, tut mir leid :( Habe ich nicht gefunden.

  • @WundesHerz
    @WundesHerz 7 місяців тому +2

    Hab rein gar nichts verstanden (nicht vom Fach), aber lasse solche Videos leise durchlaufen für die Watchtime. 😅

  • @homosuperior1337
    @homosuperior1337 7 місяців тому

    Ist ja ein Träumchen

  • @SierraX369
    @SierraX369 7 місяців тому

    16b Variante ist mit 9gb recht moderat. Ich fänd mal gut wenn mal jemand die Qualitäten gerade bei den Freien die Grossen mit den kleinen vergleichen würde… Ob es sich überhaupt lohnt in Hardware zu investieren.

    • @alpher8962
      @alpher8962 7 місяців тому

      Gibt Haufenweise vergleiche/ Leaderboards...das Problem ist wohl aktuell dass die Modelle teils auf die Anforderungen der Benchmarks trainiert werden

  • @TheCatAliasTNT2k
    @TheCatAliasTNT2k 7 місяців тому

    In dem Moment, wo du von einer "KI" verlangst, einen Algorithmus wirklich "zu entwerfen" is meistens Schluss. Die können halt nicht "denken", sondern nur "reproduzieren", auch wenn das jetzt sehr vereinfacht ist.

  • @millalaure
    @millalaure 7 місяців тому +1

    An diesem Punkt sind die bots einfach nur noch skurril, lässt sich einfach hoffen, dass nicht allllllzuviele junge Zuschauende hier sind 😅

  • @CrYsTaLySeR
    @CrYsTaLySeR 7 місяців тому

    😍😍😍😍

  • @arnonuehm6361
    @arnonuehm6361 7 місяців тому +6

    Diese Kommentarbots 😂

  • @weltsiebenhundert
    @weltsiebenhundert 7 місяців тому

    Zu den "Extremen Personen":
    Macht es nicht Sinn für die Show 2 extreme Pole einzuladen und 4 "normale" Menschen.
    Wenn das fehlt währe die Diskussion "nutzlos", da kaum Unterschiede.
    Leider muss jedoch gesagt werden: Öffis Pokern auf Klicks -> Somit Themen Brutal -> Somit Reposts -> Repeat

  • @Xcf_341
    @Xcf_341 7 місяців тому

    Boha alter nervt das, ist wie mit den Grafikkarten seiner Zeit, „omg schau dir hier die 0.2mm Reflexion an und auf der 1080“ Wegen den paar unterschieden x Videos rauszuhauen ist so sinnlos! Warte lieber bis sich wirklich was krasses tut, anstatt diese lächerlichen Vergleiche zu machen, wie die anderen x tausend gerade.

    • @alpher8962
      @alpher8962 7 місяців тому

      Themenvorschlag ?

    • @Xcf_341
      @Xcf_341 7 місяців тому

      @@alpher8962 Javascript und co. Anstatt nur dem Hype zu folgen, Millimeter zu Vergleichen!

    • @TheMorpheusTutorials
      @TheMorpheusTutorials  7 місяців тому +1

      Ich hab über 50 videos zu JavaScript..