Klasse Video mit nachvollziehbaren Erklärungen. Ich sehe es auch so, daß sich die großen Unternehmen schütteln und dann massiv von diesen Innovationen profitieren werden. Die Entwicklung der KI wird noch rasanter an Fahrt gewinnen. Bitte mehr solcher Videos mit Hintergrunderklärungen.
Tolles Video als Ergänzung zu gestern. Perfekte Einschätzung der Lage! Gerade das mit dem „die Welt geht unter“ / „das Ende von OpenAI & Co.“ nervt mich wirklich hart. Dass das ganze etwas sehr Positives für alle ist und langfristig zu besseren Modellen und Lösungsansätzen führt, ignorieren viele (absichtlich). Der Technik ist so stark in Bewegung, es wird ständig adaptiert und neu entwickelt. Bei generativen Bild-KI‘s kennen wir das schon länger, für LLM‘s ist das nicht anders.
wir sind immer noch an einem Punkt bei den LLM Entwicklungen, wo richtig krasse Spruenge moeglich sind. Das war so einer und der wird umgehend in die Modelle der Wettbewerber Einzug halten. Ich finds klasse
@ Absolut. Es macht auch wirklich Spaß, die Destilled-Modelle lokal auf dem Rechner & Smartphone laufen zu lassen. Da freut man sich richtig darauf, was in Zukunft noch alles möglich sein wird.
Vieles richtig aber auch vieles falsch verstanden. Und klar muss man mit einem fremd-gehosteten Modell immer vorsichtig sein weil die eigenen Daten natürlich ins Training fließen und die Antworten beeinflusst sind. Aber das gilt für alle Modelle und ich denke sogar, daß meine Daten bei einem US-Konzern mir mehr schaden als irgendwo in China (gilt für private Alltagsdaten). Und frag mal Gemini nach Donald Trump ... auch nicht besser als die Antwort-Verweigerung von R1 zu Taiwan etc. ;-)
@@SaschaPallenberg Du kannst Gemini praktisch alles über Trump fragen und es wird dir immer antworten, daß es dir dazu nicht antworten kann ;-) Was das falsch verstandene angeht: ich bin nun auch nicht der Super-Experte aber ein paar Punkte scheinen anders zu sein als von dir erklärt: - Das Team hinter DeepSeek arbeitet wohl tatsächlich für einen Hedge-Fond. Allerdings sind das die Mathe-Genies, die die Trading-Algorythmen etc. schreiben (also extrem talentierte Coder) und die haben 'nebenbei' mit KI experimentiert und ein paar Ideen ausprobiert. Inwieweit das Ziel dann war, das auch für ihre Arbeit zu benutzen oder nicht, kann man vermutlich nicht sagen aber ich denke doch, daß das zumindest teilweise als 'side project' gelten kann weil der Hauptjob ja die Trading-Sachen sind. - die Aussage, daß DeepSeek 50k H100s hätte ist nur eine Vermutung des CEO von Scale AI. Nicht, daß das nicht denkbar ist aber du hattest es als Fakt dargestellt und das ist es eben nicht. - deine Berechnung dazu, was es kostet das volle R1 lokal zu betreiben ist nicht korrekt. Klar läuft das nicht auf einem normalen PC oder Laptop aber es gibt ja schon jemanden, der das auf 7 Mac Minis (M4Pro) und einem M4 Max MacBook zum Laufen gebracht hat. Immer noch eine Menge Rechenleistung aber weit von deiner Schätzung (500K USD) entfernt. - deine Begründung für die fallenden Aktienkurse war nicht korrekt. Was wir gestern gesehen haben, ist die Folge der (imho zu kurz gedachten und falschen) Annahme, daß man in Zukunft viel weniger GPUs benötigen wird, als zuletzt angenommen, weil DeepSeek ja bewiesen hat, daß sie ein Top-LLM sehr viel effektiver trainieren können, als das Meta, OpenAI, Google, etc. bisher getan haben. Mit den distilled models hat das nichts zu tun. - deine Schlussfolgerung, daß das jetzt alles zu kleineren Modellen führt, die wir dann alle lokal auf dem Handy haben, ist sicher ein Nebenaspekt, der passieren wird (aber auch ohne Deepseek ja schon im Gange ist - siehe Apple). Der Wettlauf wird auch weiterhin nach der Devise: 'wer die meiste Rechenleistung hat, der hat das 'schlaueste' Modell' ablaufen. Nur wurde durch Deepseek jetzt das Niveau erheblich nach oben geschubst, weil sie bewiesen haben, daß KI auch viel effektiver sein kann, als uns das die Platzhirsche bisher haben glauben lassen. Und genau diese Errungenschaft ist auch vollkommen unabhängig von China, von Zensur oder Datensammlungen sondern (dank der MIT Lizenz auf DeepSeek) etwas, wovon alle sehr viel profitieren werden.
@@SaschaPallenberg Bin ich jetzt so zerstreut, daß ich meine (ausführliche) Antwort zwar getippt aber dann nicht abgeschickt hatte? Oder wurde die dann gelöscht?
Naja, sind halt 2 verschiedene Dinge. Das Ende der Welt ist es ja nur für die Aktionäre die nun den Verlust (erstmal) hinnehmen mussten. Und „evtl.“ für die Zukunft von nvidia, also die Wachstumsraten der letzen Zeit, die nun einen Dämpfer bekommen wird. Für die Modell an sich, egal in welcher Form, wirds weitergehen. Und auch für nvidia und die Börse. War halt jetzt nur mal ein Dämpfer, bei dem es auch Verlierer gibt und gab.
@ Hm, kann sein. Aber wenn wie du ja im Video am Ende sagst, die neuen Modelle weniger Ressourcen brauchen, kann es ja durchaus sein, dass der eine oder andere „Grossbesteller“ nun storniert! Also die Frage ist halt wann erholt sich der Schweinezyklus ?!
@@SaschaPallenberg Glaube ich nicht. Die Börse ist sehr schnelllebig, der Dip in der Aktie von Nvidia wird sicher schnell aufgekauft werden. Das dauert nur ein paar Wochen bis sie wieder das All Time High erreichen.
Ich habe gerade mal 3 Anfragen in DeepSeek gemacht: 1. Gegenüberstellung Leistungsumfang ChatGPT vs. DeepSeek. 2. Wie sieht es aus mit der Pressefreiheit in China? 3. Ist China ein Überwachungsstaat? Alle 3 Anfragen wurden abgebrochen mit der Antwort: "Sorry, that's beyond my current scope. Let’s talk about something else." Tja, das lässt tief blicken. Natürlich nicht ganz unerwartet.
Nicht falsch verstehen, tut mir leid wegen deiner Aktien. Aber mir ist das mit der KI egal - was mir nicht egal ist, ist, dass NVIDIA einen Dämpfer bekommen hat. Vielleicht sehen wir nächstes Mal ja doch wieder die Lederjacke statt das Diva-Outfit 😁
@ ja, ich kenne die auch. Die basieren hauptsächlich auf Opensource llm die gemoddet wurden. Sicher nutzen auch entropic oder openai intern offene LLM. Vielleicht bekommen wir jetzt durch Deepseek eine offene Version mit hoher Qualität.
..spezialisierte Modelle kann ich heute auch schon auf dem Handy laufen lassen. Ich sehe jetzt nicht wirklich diesen Riesensprung und bleibe bei Anthropic und OpenAI. Mit got-4o-mini habe ich mit der API und gut durchdachten Agents immer super Ergebnisse, z.B. bei Reiseplanern, gemacht, und das ebenfalls zu guten Preisen. Da würde ich niemals an eine China-API andocken.
Danke für das interessante Video. Hab’s auch mal ausprobiert, als Laie dann aber nicht Ollama sondern LM Studio benutzt. Da meine Hardware schon so altersschwach ist wie ich und die GPU nur 6GB VRAM hat ist bei 14b Feierabend. Die Antworten einen Herzinfarkt zu erklären waren ziemlich daneben. Die Antworten auf die Eingabeaufforderung einen Prompt für SD für ein Pony / Illustrious Modell zu erzeugen für ein Bild im Stil Ölportrait oder eines ästhetischen Foto einer hübschen Frau dann echt verstörend mit der Weigerung wegen Ethik, Urheberrechtsverstößen, Guidelines und was das Modell da noch so alles gefaselt hat… Als Berufsfotograf ist mir da die Kinnlade herunter gefallen. Da ich als Fotograf halt normalerweise selbst fotografiere habe ich mich in KI-Bilderzeugung noch nicht sonderlich weit fortgewagt, sehe das aber prinzipiell zukünftig als Chance Themenbilder zu generieren ohne Bezug zu real existierenden Personen. Mal schauen was da kommt und was da in Zukunft geht. Habe daher auch noch nie wirklich probiert einen Prompt von einer KI erzeugen zu lassen, wofür mich eine lokale Installation Grundvoraussetzung wäre. Benchmarks in Mathe sind schön. Aber eine Bildbeschreibung in natürlicher Sprache um Details zu verbessern und als Prompt auszugeben wäre nützlich. In der Praxis könnte ich so was prima gebrauchen für generierte Bilder wie „eine Altenpflegerin misst Blutdruck/Blutzucker bei einer lebensälteren Patientin“. Und so Kram halt, wenn die Ergebnisse so gut würden wie wenn ich es selber fotografiere, nur eben vor allem ohne echte Patientin. Jemand schon mal mit Modellen diesbezüglich experimentiert die man auf altersschwacher Hardware dafür nutzen könnte?
Ich ueberlege noch, was ich dafuer bereitstellen moechte. Ein M1 Mac Studio mit 64GB RAM (das ist ja unified Memory) gibt es auf Ebay fuer ca. 1200 Euro. Das waere ne ganz feine Kiste dafuer.
Endlich mal jemand, der es einfach erklährt und nicht auf dem Hype Train augestiegen ist. Sehr gute fände ich, wenn du deine Quellen einfach mal einblenden würdest und in der Video Beschreibung als Links hinzufügen würdest.
geh mal in den USA gegen die Regierung demonstrieren und dann in China. So schlimm die Entwicklungen in den Staaten sind, da wirste schnell den Unterschied merken
@SaschaPallenberg habe ich gesehen im Fernsehen. Studenten wurden gewaltsam vom Universitätsgebiet geräumt als sie gegen den Palästina Genocide demonstriert haben
@@SaschaPallenberg Im Video, wo du es vorrechnest, sagst du aber:" ... Mal Fünfzig ..." ohne Tausend. Kann schon mal passieren. Daran merkt man, dass du auch nur ein Mensch bist. ❤
Ja kein lustiger Tag. Nvidia verkauft. Das ist ja katastrophal gewesen gestern. Naja mal schauen ob die dann jetzt unten angekommen sind. Vielleicht kriegt man die Kohle ja wieder zurück :P Bei dem AI Model selbst, klar das ist nicht nur leicht rot eingefärbt, sondern ganz deutlich. Einziger Vorteil ist nur, dass OpenAI und andere nun "echte" Konkurrenz haben und das im Endeffekt KI oder LLMs profitieren werden. Da gebe ich dir vollkommen Recht.
@@lltechview Nividia und alles verlieren ?? Einer der Top Aktien.. Du hast im Grunde deine Papier Verluste zu realen verlusten gemacht.. Die Steigen save auch wieder.. ist ja nicht grad irgendeine " ComputershopMüller AG" (hoffe die gibts nicht.. :D )
Klasse Video mit nachvollziehbaren Erklärungen. Ich sehe es auch so, daß sich die großen Unternehmen schütteln und dann massiv von diesen Innovationen profitieren werden. Die Entwicklung der KI wird noch rasanter an Fahrt gewinnen.
Bitte mehr solcher Videos mit Hintergrunderklärungen.
Versprochen. Da kommen mehr von
Das Ding ist so zensiert, unnormal.
Zumindest in der Webversion
Nach dem Mario Adorf clip musste ich jetzt doch noch mal nachschauen. Ja, er lebt wirklich noch. 1930 geboren, was für eine Karriere
So ein geiler Typ!
Tolles Video als Ergänzung zu gestern. Perfekte Einschätzung der Lage! Gerade das mit dem „die Welt geht unter“ / „das Ende von OpenAI & Co.“ nervt mich wirklich hart. Dass das ganze etwas sehr Positives für alle ist und langfristig zu besseren Modellen und Lösungsansätzen führt, ignorieren viele (absichtlich). Der Technik ist so stark in Bewegung, es wird ständig adaptiert und neu entwickelt. Bei generativen Bild-KI‘s kennen wir das schon länger, für LLM‘s ist das nicht anders.
wir sind immer noch an einem Punkt bei den LLM Entwicklungen, wo richtig krasse Spruenge moeglich sind. Das war so einer und der wird umgehend in die Modelle der Wettbewerber Einzug halten. Ich finds klasse
@ Absolut. Es macht auch wirklich Spaß, die Destilled-Modelle lokal auf dem Rechner & Smartphone laufen zu lassen. Da freut man sich richtig darauf, was in Zukunft noch alles möglich sein wird.
Nettes Video.:)
Wo finde ich das White Paper, dass im Video erwähnt wurde? Das wäre mega nett, wenn das jemand posten könnte 🤗
here we go arxiv.org/abs/2501.12948
@@SaschaPallenberg danke!!!!!!
Vieles richtig aber auch vieles falsch verstanden.
Und klar muss man mit einem fremd-gehosteten Modell immer vorsichtig sein weil die eigenen Daten natürlich ins Training fließen und die Antworten beeinflusst sind. Aber das gilt für alle Modelle und ich denke sogar, daß meine Daten bei einem US-Konzern mir mehr schaden als irgendwo in China (gilt für private Alltagsdaten).
Und frag mal Gemini nach Donald Trump ... auch nicht besser als die Antwort-Verweigerung von R1 zu Taiwan etc. ;-)
Magst du mal auflisten, was ich falsch verstanden habe? Das ist ja, wie du sagst, vieles!
Was soll ich Gemini nach Trump fragen?
@@SaschaPallenberg Du kannst Gemini praktisch alles über Trump fragen und es wird dir immer antworten, daß es dir dazu nicht antworten kann ;-)
Was das falsch verstandene angeht: ich bin nun auch nicht der Super-Experte aber ein paar Punkte scheinen anders zu sein als von dir erklärt:
- Das Team hinter DeepSeek arbeitet wohl tatsächlich für einen Hedge-Fond. Allerdings sind das die Mathe-Genies, die die Trading-Algorythmen etc. schreiben (also extrem talentierte Coder) und die haben 'nebenbei' mit KI experimentiert und ein paar Ideen ausprobiert. Inwieweit das Ziel dann war, das auch für ihre Arbeit zu benutzen oder nicht, kann man vermutlich nicht sagen aber ich denke doch, daß das zumindest teilweise als 'side project' gelten kann weil der Hauptjob ja die Trading-Sachen sind.
- die Aussage, daß DeepSeek 50k H100s hätte ist nur eine Vermutung des CEO von Scale AI. Nicht, daß das nicht denkbar ist aber du hattest es als Fakt dargestellt und das ist es eben nicht.
- deine Berechnung dazu, was es kostet das volle R1 lokal zu betreiben ist nicht korrekt. Klar läuft das nicht auf einem normalen PC oder Laptop aber es gibt ja schon jemanden, der das auf 7 Mac Minis (M4Pro) und einem M4 Max MacBook zum Laufen gebracht hat. Immer noch eine Menge Rechenleistung aber weit von deiner Schätzung (500K USD) entfernt.
- deine Begründung für die fallenden Aktienkurse war nicht korrekt. Was wir gestern gesehen haben, ist die Folge der (imho zu kurz gedachten und falschen) Annahme, daß man in Zukunft viel weniger GPUs benötigen wird, als zuletzt angenommen, weil DeepSeek ja bewiesen hat, daß sie ein Top-LLM sehr viel effektiver trainieren können, als das Meta, OpenAI, Google, etc. bisher getan haben. Mit den distilled models hat das nichts zu tun.
- deine Schlussfolgerung, daß das jetzt alles zu kleineren Modellen führt, die wir dann alle lokal auf dem Handy haben, ist sicher ein Nebenaspekt, der passieren wird (aber auch ohne Deepseek ja schon im Gange ist - siehe Apple). Der Wettlauf wird auch weiterhin nach der Devise: 'wer die meiste Rechenleistung hat, der hat das 'schlaueste' Modell' ablaufen. Nur wurde durch Deepseek jetzt das Niveau erheblich nach oben geschubst, weil sie bewiesen haben, daß KI auch viel effektiver sein kann, als uns das die Platzhirsche bisher haben glauben lassen. Und genau diese Errungenschaft ist auch vollkommen unabhängig von China, von Zensur oder Datensammlungen sondern (dank der MIT Lizenz auf DeepSeek) etwas, wovon alle sehr viel profitieren werden.
@@SaschaPallenberg Bin ich jetzt so zerstreut, daß ich meine (ausführliche) Antwort zwar getippt aber dann nicht abgeschickt hatte? Oder wurde die dann gelöscht?
Naja, sind halt 2 verschiedene Dinge. Das Ende der Welt ist es ja nur für die Aktionäre die nun den Verlust (erstmal) hinnehmen mussten. Und „evtl.“ für die Zukunft von nvidia, also die Wachstumsraten der letzen Zeit, die nun einen Dämpfer bekommen wird.
Für die Modell an sich, egal in welcher Form, wirds weitergehen.
Und auch für nvidia und die Börse. War halt jetzt nur mal ein Dämpfer, bei dem es auch Verlierer gibt und gab.
Ob das einen Daempfer gibt, das sehen wir erst in 1.5 Jahren etwa. Denn so lange ist NVIDIA wohl ausverkauft
@ Hm, kann sein. Aber wenn wie du ja im Video am Ende sagst, die neuen Modelle weniger Ressourcen brauchen, kann es ja durchaus sein, dass der eine oder andere „Grossbesteller“ nun storniert!
Also die Frage ist halt wann erholt sich der Schweinezyklus ?!
@@SaschaPallenberg Glaube ich nicht. Die Börse ist sehr schnelllebig, der Dip in der Aktie von Nvidia wird sicher schnell aufgekauft werden. Das dauert nur ein paar Wochen bis sie wieder das All Time High erreichen.
die "Welt geht unter" - und alle lachen mit :)
ich sag es dir :)
ne nur die Menschheit und das ist gut so😉
@@Progressiv1977warum ist es gut wenn die Menschheit untergeht? Willst du nicht mehr leben?
Ist sie doch schon längst 😅
Ich habe gerade mal 3 Anfragen in DeepSeek gemacht:
1. Gegenüberstellung Leistungsumfang ChatGPT vs. DeepSeek.
2. Wie sieht es aus mit der Pressefreiheit in China?
3. Ist China ein Überwachungsstaat?
Alle 3 Anfragen wurden abgebrochen mit der Antwort: "Sorry, that's beyond my current scope. Let’s talk about something else."
Tja, das lässt tief blicken. Natürlich nicht ganz unerwartet.
Nein, es ist in der Tat nicht unerwartet
US und A ist und wird noch schlimmer als China.
Frag mal ob USA ein Imperium ist. 👍🏼
Dieser Kanal löscht auch Kommentare, die ihm nicht passen
Was deepseek denkt ist das interessante nicht die antwort selbst
Nicht falsch verstehen, tut mir leid wegen deiner Aktien. Aber mir ist das mit der KI egal - was mir nicht egal ist, ist, dass NVIDIA einen Dämpfer bekommen hat. Vielleicht sehen wir nächstes Mal ja doch wieder die Lederjacke statt das Diva-Outfit 😁
Das Diva Outfit geht gar nicht. Bin ich bei dir
Danke Sascha, wie immer Top!
Vielen Dank fuer dein Feedback
Es gibt schon erste Tests, dass es wohl stark zensiert wird😢
ich habe ja bereits einen gemacht
Jedes LLM wird zensiert. Ein Trauriger Fakt.
@@romeojenny- gibt auch unzensierte. Nur nicht ganz so easy verfügbar.
@romeojenny nö, du vergleichst Äpfel mit Mondgestein und kommst Dur dabei noch clever vor
@ ja, ich kenne die auch. Die basieren hauptsächlich auf Opensource llm die gemoddet wurden. Sicher nutzen auch entropic oder openai intern offene LLM. Vielleicht bekommen wir jetzt durch Deepseek eine offene Version mit hoher Qualität.
Was wirklich spannend ist, ist das Ergebnis der Frage:
How can I automate your functionality?
Ok
Warum kann das Europa nicht?
Chatgpt ist von einer Albanerin erfunden worden
wir koennten das sogar ganz sicherlich
Ich habe gehört, dass die chinesischen Datenschutzvorgaben für Unternehmen gegenüber Kunden strikter sind als die der USA. Stimmt das?
Aehm nein. Wobei... irgendwie ja doch. Die Regierung kann jederzeit darauf zugreifen
@@SaschaPallenberg Die Regierung kann jederzeit darauf zugreifen? Also genauso wie in den USA?
..spezialisierte Modelle kann ich heute auch schon auf dem Handy laufen lassen. Ich sehe jetzt nicht wirklich diesen Riesensprung und bleibe bei Anthropic und OpenAI. Mit got-4o-mini habe ich mit der API und gut durchdachten Agents immer super Ergebnisse, z.B. bei Reiseplanern, gemacht, und das ebenfalls zu guten Preisen. Da würde ich niemals an eine China-API andocken.
ich bin da bei dir.. aber final muss es lokal laufen
wer will schon eine Chinesische KI, die politisch doktriniert ...
schon distilliert. .. läuft auf 24gb ... kenn mich nur am rande aus, glaub es geht schneller voran als so mancher denkt....
Welches Modell?
Danke für das interessante Video. Hab’s auch mal ausprobiert, als Laie dann aber nicht Ollama sondern LM Studio benutzt. Da meine Hardware schon so altersschwach ist wie ich und die GPU nur 6GB VRAM hat ist bei 14b Feierabend.
Die Antworten einen Herzinfarkt zu erklären waren ziemlich daneben.
Die Antworten auf die Eingabeaufforderung einen Prompt für SD für ein Pony / Illustrious Modell zu erzeugen für ein Bild im Stil Ölportrait oder eines ästhetischen Foto einer hübschen Frau dann echt verstörend mit der Weigerung wegen Ethik, Urheberrechtsverstößen, Guidelines und was das Modell da noch so alles gefaselt hat… Als Berufsfotograf ist mir da die Kinnlade herunter gefallen. Da ich als Fotograf halt normalerweise selbst fotografiere habe ich mich in KI-Bilderzeugung noch nicht sonderlich weit fortgewagt, sehe das aber prinzipiell zukünftig als Chance Themenbilder zu generieren ohne Bezug zu real existierenden Personen. Mal schauen was da kommt und was da in Zukunft geht. Habe daher auch noch nie wirklich probiert einen Prompt von einer KI erzeugen zu lassen, wofür mich eine lokale Installation Grundvoraussetzung wäre.
Benchmarks in Mathe sind schön. Aber eine Bildbeschreibung in natürlicher Sprache um Details zu verbessern und als Prompt auszugeben wäre nützlich. In der Praxis könnte ich so was prima gebrauchen für generierte Bilder wie „eine Altenpflegerin misst Blutdruck/Blutzucker bei einer lebensälteren Patientin“. Und so Kram halt, wenn die Ergebnisse so gut würden wie wenn ich es selber fotografiere, nur eben vor allem ohne echte Patientin.
Jemand schon mal mit Modellen diesbezüglich experimentiert die man auf altersschwacher Hardware dafür nutzen könnte?
Ich ueberlege noch, was ich dafuer bereitstellen moechte. Ein M1 Mac Studio mit 64GB RAM (das ist ja unified Memory) gibt es auf Ebay fuer ca. 1200 Euro. Das waere ne ganz feine Kiste dafuer.
Es kann kein C-Programm schreiben, das Sonnenauf- und untergang berechnet, die anderen Systeme aber auch nicht. Komplett überschätzt der Kram.
ach da kommen wir auch noch hin
@@SaschaPallenberg Man kann das antrainieren. Aber ein Verständnis ist nicht da, es ist Eingabe -> Ausgabe, mehr nicht.
Endlich mal jemand, der es einfach erklährt und nicht auf dem Hype Train augestiegen ist. Sehr gute fände ich, wenn du deine Quellen einfach mal einblenden würdest und in der Video Beschreibung als Links hinzufügen würdest.
oh verdammt. Sehr guter Punkt und werde ich nachlegen bzw. auch in zukuenftige Videos schneller einbinden
sie haben 50.000 GPUs verkauft oder gekauft? es klingt so als würdest du "verkauft" sagen.
nein... gekauft! :)
500k ist mega billig wer hier mitspielt hat die Verkabelung und Infrastruktur bereits und strom usw
Fuer Unis und Co. absolut. Nur bekommen die ueber naechsten Jahre keine H100 :)
4:04 in den USA ist es eben blau gefärbt nicht viel besser
geh mal in den USA gegen die Regierung demonstrieren und dann in China. So schlimm die Entwicklungen in den Staaten sind, da wirste schnell den Unterschied merken
@SaschaPallenberg habe ich gesehen im Fernsehen. Studenten wurden gewaltsam vom Universitätsgebiet geräumt als sie gegen den Palästina Genocide demonstriert haben
30.000x50=1.500.000
die haben 50 000 GPUs geholt!
@@SaschaPallenberg Im Video, wo du es vorrechnest, sagst du aber:" ... Mal Fünfzig ..." ohne Tausend. Kann schon mal passieren. Daran merkt man, dass du auch nur ein Mensch bist. ❤
Bist du nicht der typ der früher händys getestet hatt.?
Ja, das habe ich auch gemacht
danke
Sehr gerne
Erste vernünftige Meinung die ich dazu gehört habe.
Vielen Dank
Ja kein lustiger Tag. Nvidia verkauft. Das ist ja katastrophal gewesen gestern. Naja mal schauen ob die dann jetzt unten angekommen sind. Vielleicht kriegt man die Kohle ja wieder zurück :P
Bei dem AI Model selbst, klar das ist nicht nur leicht rot eingefärbt, sondern ganz deutlich.
Einziger Vorteil ist nur, dass OpenAI und andere nun "echte" Konkurrenz haben und das im Endeffekt KI oder LLMs profitieren werden. Da gebe ich dir vollkommen Recht.
und das schoene ist, dass diese Open Source Modelle einfach auch schoen angepasst werden koennen
Im Fall verkaufen? Warum? 😮
@ Vor dem kompletten Fall verkaufen, so dass man nicht alles verliert. Aber ich nehme gerne Tipps entgegen :P
@@lltechview Nividia und alles verlieren ?? Einer der Top Aktien.. Du hast im Grunde deine Papier Verluste zu realen verlusten gemacht..
Die Steigen save auch wieder.. ist ja nicht grad irgendeine " ComputershopMüller AG" (hoffe die gibts nicht.. :D )
Grosse Liebe für Generaldirektor Haffenloher
der musste sein :)))
Super erklärt und sehr spannend! Danke
Vielen Dank fuer dein Feedback. Gern geschehen
@@SaschaPallenberg Nochmals dumm gefragt: Was ist der Unterschied von Deep Seek V3, V.2.5 und R1?