EURE Grafikkarte ist ein KI Supercomputer und ich zeig euch, wie ihr ihn nutzen könnt! ChatRTX
Вставка
- Опубліковано 9 лип 2024
- Chat RTX oder auch "ChatRTX" ist ein Large Language Model, das ihr mit Hilfe einer RTX 30er oder 40er Karte betreiben könnt und das sogar lokal! Und auch sehr spannend: Ihr könnt das Large Language Model sogar auf eure persönlichen Wissensbestände trainieren, denn ihr könnt ChatRTX mit euren eigenen Dokumenten füttern und dann spezifische Fragen stellen. Ich habe mir ChatRTX für euch angesehen und vor allem auch geschaut, wie stark das auf die GPU Last geht.
(Werbung) Mehr Infos zum Dark Rock 5: www.bequiet.com/en/cpucooler/...
✗ Sehr interessantes Buch über KI: amzn.to/3Ln5gL2
✗ STARKE Grafikkarte für ChatRTX: amzn.to/3XYrZVA
✗ Mit DIESER Karte habe ich getestet: amzn.to/3XYfIAy
✗ Sehr gutes Headset unter 50€: amzn.to/4cROm34
✗ Gaming Maus unter 20€: amzn.to/4cVi9YM
✗ Sehr günstiges XXL Mauspad: amzn.to/4eUqz4m
✗ Auch ein interessanter kleiner Computer: amzn.to/3zBwcEu
🔥ALLE meine Empfehlungen auf NBB: www.notebooksbilliger.de/gami...
🔥 Merchandise: www.kreativecke.shop
👉 [Werbung] Meine Angebote auf Dubaro:
bit.ly/2M6kIKB
👉 MEINE AUSRÜSTUNG
✗ Meine Gaming Tastatur: amzn.to/3oPJu79
✗ Meine Gaming Maus: amzn.to/3cyB2DC
✗ Meine Kopfhörer: amzn.to/3FE1Crk
✗ Mein Mikrofon (für Videos): amzn.to/3CF066s
✗ Mein Interface: amzn.to/3kYPIAy
✗ Meine Kamera: amzn.to/3DFnC4H
✗ Geizhals Liste: gh.de/g/dYz
👉 Das TEST System, auf dem viele Dinge getestet werden
✗ Prozessor: amzn.to/3qZOWau
✗ Mainboard: amzn.to/3l01o61
✗ GRAFIKKARTE: amzn.to/3HIwdpH
✗ RAM: TBA
✗ SSD: amzn.to/3DSamJS
✗ CPU Kühler: amzn.to/3oOb30E
✗ Netzteil: amzn.to/3CG1o11
✗ Benchtable: amzn.to/3xbevGj
👉 Social Media
🎮 Discord: / discord
🎤 Twitch: / kreativecke
📷 Instagram: / kreativecke
💪Twitter: / _kreativecke_
❗Affiliate❗
Links, an denen ein ''✗'' steht, sind sogenannte Affiliate-Links. Kommt über diesen Link ein Einkauf zustande, werde ich mit einer Provision beteiligt. Für euch entstehen dabei selbstverständlich keine Mehrkosten. Wo ihr die Produkte kauft, bleibt natürlich euch überlassen. :)
Danke für eure Unterstützung
❗Disclaimer❗
Wenn es im Video nicht anders benannt wurde, handelt es sich bei den Testgeräten und temporäre Teststellungen der Hersteller oder selbst gekaufte Testgeräte! Die Berichterstattung basiert zwar auf subjektiven Eindrücken, allerdings ist die Darstellung so objektiv, wie es nur möglich ist! - Наука та технологія
Einfach 2 PCs miteinander darüber reden lassen, also die Antworten abwechselnd dem anderen geben und warten, was passiert. Ähnlich wie bei dem KI Experiment von vor ein paar Jahren als die KIs eine eigene effizientere Sprache entwickelten. Wäre vielleicht mal eine Video Idee denn das war super spannend damals.
Gutes Tool, so eine KI.
Ich bin noch so ein Typ, der Wikipedia liest und auf UA-cam Musik hört.
Ich glaube, ich bin zu alt für das ganze KI-Gedöns. Finde es aber sehr interessant, was damit andere UA-camr so alles machen.
So, es ist nun 17:47 Uhr und ich mach mich mal bettfertig. ;)
Daumen hoch für dein Video. 👍
2 Minuten im Video: "das geht wenn ihr eine rtx 30/40er Karte habt". Frisch ne 7900xt gekauft bin dann wohl raus. Wird trotzdem fertig geschaut 🤝💯
😅
AMD bietet dies tatsächlich bereits an für RX7000 weil diese Serie über AI Cores verfügt.
Man braucht dazu nur das kostenlose Programm LM Studio for AMD ROCm. Eine Anleitung findet man via Google im entsprechenden AMD Community Blog Post.
Funktioniert genauso einfach wie Chat with RTX.
LM Studio funktioniert aber auch mit Intel Arc und allen RTX GPUs.
Für die 7900xt gibt es glaube ich ROCM Unterstützung. Sollte also auch irgendwie gehen. Wenn auch nicht so einfach😅
Etwas zu "ChatRTX" vergleichbares bekommt man mit zwei anderen Tools hin: "LM Studio" (Modelle laden und damit chatten) und "Anything LLM" (für den eigene Dokumente-Teil). Ist dann dadurch, dass man die beiden über die API von LM Studio miteinander verbinden muss, nicht mehr ganz so einfach, aber beide sind sehr einsteigerfreundlich und es gibt eine Menge UA-cam-Tutorials zu den beiden Tools. So habe ich bei mir vor kurzem etwas Vergleichbares sogar mit einer GTX 1650 mit nur 4 GB VRAM zusammenstellen können.
ich habe nh 7800xt und arbeite trotzdem mit lokaler LLMs. verwende LLamafile oder GPT4ALL (empfehlenswert, man kann dateien mitgeben)
Kannst du auch ohne RTX machen mit GTP4All
Wow Hammer, find ich ein geiles Feature von dem ich bisher nichts wusste. Finde LLMs schon spannend und wenn man da jetzt was eigenes lokales draus basteln kann bin ich sehr gespannt ob und was sich daraus alles machen lässt. Danke für das Video
Hi danke für die vielen tollen Videos xD
Kein Thema! 😊
Wo bleibt meine wütende Dubaro Werbung? ❤❤
Danke mal wieder für ein sehr interessantes Video, zu einem spannendem Thema
Danke für die Info, das wird in ein paar Jahren ein super Stütze sein
#KreativeFragen Ich habe eine Frage, und zwar: Was ist deine momentane Meinung zu Linux im Bezug auf Gaming? Ich meine mich zu erinnern dass du ein Video über ChimeraOS gemacht hast, aber meine Frage bezieht sich auf die "normaleren" Distros wie Fedora, Ubuntu, Mint, etc., die man auch als normales Office OS verwenden kann. Ich glaube immer mehr Leute kritisieren MS für ihr Verhatlen (z.B recall) oder für Windof generell, weshalb ich Linux super spannend als Alternative finde. Übrigens super interessantes Video!
Du hast bei 3:00 gesagt, dass ChatGPT mit den Daten der Usern gefüttert wird.
Allerdings ist es so, dass ChatGPT keine Userdaten speichert.
Also wenn man einen neuen Chat aufmacht, dann ist der unabhängig davon, was du in einem alten Chat gemacht hast
Das mag sein, aber alles was du als mit der kostenlosen Version mit ChatGPT machst, wird teilweise (weil gefiltert wird) zum weiter trainieren von ChatGPT genutzt. Landet also in einer zukünftigen Version von ChatGPT. Bei einer lokalen KI braucht man sich halt null Gedanken darüber macht was für private Infos man der KI gibt.
Das meint er nicht. Er meint das OpenAi ChatGPT mit unseren Daten aus den chats trainiert. Und das stimmt ja auch
Einfach nur mal danke für die Qualität und die Arbeit die du da reinsteckst! Die ist wirklich auf einem hohen Niveau. Ich bin so ein 2160p Fetischist und finde deine Videoqualität echt gut. 😅 Und zum Thema vom Video, finde es nur schade das man als AMD User wieder nichts davon hat. 😢
Ich frage mich ob man in ein paar Jahren in der Schule noch lernt wie man Informationen aus einem Text erarbeitet. Mittlerweile ist das alles duch KI so einfach geworden, meiner Meinung nach schon zu einfach!
Das kann man dann ebenfalls über klasische Bibliotheken,Wikipedia oder den Fortschritt generell sagen.
Der Moderne Landwirt kann 1000 Menschen Versorgen weil er die Technologie dazu hat (vom Saatgut bis zum Traktor).
Wieso ist es etwas schlechtes, wenn dinge einfach werden ?
Tjo...wenn in Zukunft dann alle nur noch KI machen lassen und nichts mehr lernt...dann sage ich mal Willkommen in der Idioten Welt!
Die Grundlagen sollte man weiter lernen. Die Quellen zu überprüfen, bzw ist die KI aktuell zum Teil einfach viel zu dumm
Vergiss es. Es wird einem beigebracht Wass man in der Welt nicht braucht
Der Mensch muss kreativ bleiben und wissen wie er mit der ki umgeht. So erreichen wir als Menschen nochmal eine extreeeme Leistungsseigerung. Allerdings sind die Gefahren nicht zu unterschätzen, würde fast sagen wir werden sehen wie das ausgeht 🎉😂
Das ist ja mal richtig klasse. Da kann man seine Bilder sortieren lassen, ohne sie hochladen zu müssen. 7:47
Sehr interessantes Video. Mit meiner 4080 könnte ich das ja mal ausprobieren 😁
Sehr sehr informativ, danke dir (euch) mal wieder für richtig guten Content.
Also klar wenn man irgendwas ausarbeiten müsste wie in deinem Fall einen Aufsatz sollte man nicht betrügen.
Jetzt kommt aber das aber.. wir leben im 21. Jahrhundert. Wäre es nicht klüger eher zu lernen wie man mit der KI besser Informationen verarbeitet?
Schau mal in der Schule bekommt man so viel Information rein geprügelt, viel davon braucht man einfach nicht im späteren Leben.
Wäre es nicht besser Themen zu nennen damit die Schüler mit einer KI sich informieren lassen und in verbalen Dialogen in Gruppen die beste gemeinsame lösung zu finden?
Ich finde persönlich finde das ist eine großartige Chance die Zukunft für uns alle schöner zu machen. Veraltete Bildungssystem zu modernisieren und auf individuelle Interessen und persönlichkeiten einzugehen.
Ich habe über die paar Jahre chatgpt in mein Leben integriert und es hilft mir ungemein.
Sogar meiner Mutter die leider nicht so gut Deutsch spricht hilft Briefe besser zu verstehen oder selber zuschreiben.
Beste Grüße
Iggy
Ist das dann nicht so stark gefiltert wie Chatgpt? Also könnte ich mir endlich wieder 4 Phasen Pläne zur übernahme der Weltherrschaft erstellen lassen ohne dass mir gesagt wird (ein echtes Zitat): "Es ist wichtig zu beachten dass der Gedanke an die Weltherrschaft unethisch und unrealistisch ist. Zusammenarbeit, Frieden und gegenseitiger Respekt sind die wahren Wege zu einer besseren Welt."
Unrealistisch?! I doubt it!
Kommt auf das Chat Modell an. Weiß nicht wie gefiltert Mistral 7B im Urzustand ist, es gibt aber basieren auf dem Modell andere Modelle, die komplett unzensiert sind. Finde man auf Huggingface.
Klingt sehr interessant um etwas für die Lokführerausbildung daraus zu machen.
Alle Unterlagen die ein TF im Kopf haben muss da rein laden (BRW, (Ko)Ril408, Bremsvorschrift, Signalbuch, die Unterlagen zu den einzelnen Fahrzeugen, um nur ein paar Unterlagen zu nennen. Und dann wäre eine Suche nach Themen wie z.B.: wie muss ein TF sich beim Aufleuten eines ZS7 verhalten", ganz easy.
Aber eh dieses Potenzial bei der Bahn erkannt wird, ist Mehdorn Kompost und der Lutz läääängst in Rent...
Ich werde Chat RTX dafür nutzen bzw. testen während meines Studiums. Informationen die ich täglich erhalte und mir aneigne werde ich der KI zur Verfügung stellen und hoffe dann z.B darauf das wenn ich z.B vor einer Klausur eine Information dringend brauche die in eines von vielen Dokumenten steht mir dann liefern kann ohne das ich stundenlang suchen muss.
#KreativeFragen
Ich hatte mal das Problem, dass mir im Task Manager angezeigt wurde, dass OBS 30% meiner Grafikleistung (RTX4090) benutzt. Nach einer kurzen Google-Suche habe ich einen Kommentar gefunden, der gesagt hat, dass der Task Manager gerne falsche Auslastungen besonders in Bezug auf die Grafikkarte anzeigt. Ich hab daraufhin mal den Task Manager mit GPU Tweak III verglichen und während der Task Manager zwischen 25-35% angezeigt hat, war die Auslastung bei GPU Tweak nie über 7%. Wie kommt es zu diesem Unterschied? Gibt es "zuverlässigere" Programme, die den Wert richtig anzeigen?
Wäre ziemlich genial, wenn man der Ki verschiedene Datenbanken zu futtern gibt und diese dann Querverweise erstellen könnte. Dürfte für so manchen Analysten evtl eine Erleichterung sein. Und je nach Inhalt ist der lokale Einsatz sehr wichtig, denn manche Sachen sollten nicht ins Netz gelangen. Also Mitarbeiterdaten, Betriebsgeheimnise, strategische Planungen für die Zukunft des Betriebes, usw.
Wie ich mir das vorstelle: manchmal rennt man gedanklich in ein rabbit hole, kommt nicht weiter und verschwendet ggf Zeit. So könnte man der KI die Börse, Nachrichten und internen Daten geben und ein kleines was-wäre-wenn Spiel spielen. Um dann zu schauen, ob man richtig liegt oder sich verrannt hat. Also ob es noch andere Alternativen gibt. Hat ein bisschen was von Zukunft vorhersagen. Etwas ähnliches gibt es schon in der Filmindustrie. Ich komme nur gerade auf den Namen nicht. Nur das es bei RTX KI eben lokal und nicht auf einem Server ist.
Geiles Thema und vorallem schönes Video dazu , direkt wieder heiß gemacht ne neue Grafikkarte zu holen weil meine 1070ti mittlerweile hart nachgibt , bin zwar reiner FHD zocker aber selbst da hinken nun die Spiele etwas nach. Überlege mir gerade ne 4070 zu holen , Gigabyte hat da gerade ne schöne cashback Action aber lohnt es sich momentan , sollte man eher aufs 4. Quartal und den neuen Release abwarten oder wäre ich damit die nächsten Jahre erstmal Safe ? Danke schonmal und mach bitte weiter so 🙌🏼
Mich würde auch ein Video über Stable Diffusion interessieren und ich glaube, dass das eine Sache ist, die für viele Leute nützlich ist, um z.B. Grafiken für Referate, für Einladungen, oder als Dektophintergrund zu generieren.
Ich musste damals für Referate und Co. noch Microsoft Encarta oder ein Schüler Lexikon von CDs nutzen (ja gab noch kein Google oder Wikipedia damals) und heute kannst dir binnen Sekunden das Ding generieren lassen was man dann nur etwas überarbeiten. muss.
7:41 Das liegt daran das Mistral 7B mit einem sehr überwiegendem englischen Datensatz trainiert wurden.
Das ist schon echt cool. Bin froh, dass ich eine Grafikkarte hab, die sowas kann! Könnte nützlich werden
Yes, sehe ich genauso! 😊
Das sollte unbedingt auch für alle anderen Grafikkarten geben. 😊😊
aber cooles vid!
Danke dir ☺️
Die Tensor-Cores kamen allgemein betrachtet mit der Titan V - die war halt mit ihren 3000 Euro nur fast 3 mal so teuer wie die Titan Xp damals. Für die breite Masse kamen die Tensor Cores dann mit der RTX2000er Generation, wie auch die RT Cores - und das war 2018, nicht 2019.
Ansonsten wie gewohnt sehr schöne Videoqualität - interessantes Thema und unterhaltsam dargestellt.
KI ist gerade dabei die Welt radikal zu verändern. Früher war ein Taschenrechner das bedingende Werkzeug im Job, später dann Windows und Office, heute ist es die Fähigkeit mit KI zu kommunizieren. Der Siemens CEO sagte in einem Interview, Arbeitsplätze werden nicht durch KI gefährdet, sie werden durch Menschen gefährdet die mit KI arbeiten. Auf dies lokale Möglichkeit wie von dir hier berichtet habe ich gewartet. Ob die Chose auch unter Win10 oder Linux laufen könnte? Danke für das Video.
Habe zwar keine 30er oder 40er Karte aber bin bei dem Thema KI immer dabei. Besonders als das erste Ray-tracing herausgekommen ist. Schade das das nicht jedes game supportet! Schönen Mittwoch wünsch ich dir 🙃
Dir auch! 😊
vielleicht haben die Game Entwickler nicht das Geld für die Tools
@@Dj-Molex Das kostet GEld für entwickler ?
@@Survival_bility-m1h ich weiß nicht, ob Nvidia etwas abhaben will, jedoch braucht es die richtige Engine, die Devs sowie natürlich auch die Kosten, die beide Sachen so aufbringen
@@Survival_bility-m1h Alles in der Entwicklung eines Spieles kostet auf die eine oder andere Weise Geld. Ein Entwicklerstudio hat für jedes Spiel ein bestimmtes Budget, das sie einhalten müssen. Und die meisten Features, die man in das Spiel einbauen möchte, muss man entweder von einem Anbieter leihen oder selbst programmieren lassen, was lange dauert und somit auch Geld kostet.
Jetzt mal abseits vom Videothema, der Dark Rock 5 sieht wirklich nice aus, so in all Black!
Finde ich auch! 😊
Minute 1:50
DLSS ist ein klein wenig falsch erklärt.
Was du mit Bild Generation meinst ist die neue Frame Generation der 40er Serie.
DLSS ist eine Technologie, die es ermöglicht, kleine Bilder mit KI hoch zu skalieren.
Das heißt, nativ berechnet die GPU ein kleineres Bild, doch dieses wird von den KI Prozessoren zur gewünschten Auflösung hochskaliert.
Was auch bedeutet, dass dies bei den 20er Karten sichtbar noch nicht 100%ig ausgereift ist, da man Fragmente im Bild und Fehler in den Texturen erkennen kann.
Ich lebe zur Zeit noch mit einer 2060 und bin gespannt, was die 4070 ti super kann, einschließlich ChatRTX.
Danke für die Einführung, übrigens.
läuft das auch auf ner 16er GTX? oder ist da wieder eine künstliche Hürde drin? denn diese Karte konnte bisher fast alle Features mit ein paar Umwegen der RTX karten nutzen
die Dokumentation von Programmen durchzusuchen wird extrem einfach dadurch.
Das 7B oder 13B steht für die größe des Netzwerks des Modells. Je mehr umso "intelligenter" ist das Modell. Aber der bedarf an VRAM steigt dabei enorm an.
13B Modelle benötigen schon enorm viel VRAM, man kann sie auch auf kleinen Karten ausführen. Aber wenn man das macht kann man sich einen Kaffee holen um die wartezeit zu überbrücken.
Ich werde mir eine super unreal engine 5 lehrer ki bauen das wird heftig
Ich hab mir das jetzt auch runtergeladen, bei mir ist aber kein Llama2 oder Gemma 7B vorhanden weißt du woran das liegen kann ^^
hat das siherheitsmechanismen wie chatgpt damit es übe rmanche themen nicht spricht? oder kann man dem auch chemie bücher lernen und dann fragen wie stellt man chrystal meth her zb. oder sicherheitsrelevantes das attentäter nutzen könnten usw.... fand die ersten ki´s noch gut und interessant aber mittlerweile mit den humanoiden usw sind wir nicht mehr weit von terminator szenario weg...
Mir selbst käme jetzt sofort der Gedanke sämmtliche Skripte zu einem Thema aus meinem Studium darein zu werfen und damt zu lernen bzw es auch als kleines Gedächtnis zu verwenden
Ja genau! Das ist auch ein guter Anwendungszweck!
llama 3, gibt es glaub noch nicht zur auswahl ist aber ein sehr starkes model
Wie heißt das zweite Spiel was man in dem Video sieht mit der düsteren Stimmung und dem man mit der Tasche und der waffe ?
Mit freundlichen Grüßen
Geht das auch mit radeon?
Llama2 ist ohne Frage das beste
LLama2 war längere Zeit ein sehr gutes Model. Mittlerweile ist aber Mistral 7B genauso stark wie LLama2 13B, dabei aber effizienter.
Ich hoffe auf das neuere LLama3, welches nochmal stärker ist als LLama2 und ca. vor 7 Wochen veröffentlicht wurde.
PS: (7B bedeuten die Parameter eines Modells und sind 7 englische Billionen | analog zu 13B -> 13 Billionen)
kann man diese KI auch im twitch chat als bot nutzen?
Ich glaube Du hast mit den Video grad einige Kid's auf die Idee gebracht, ihre Hausaufgaben zukünftig ihre Grafikkarte machen zu lassen 😂
1 kid - 2 kids
Würde das echt für Hilfe in spiele nutzen. Nicht mehr ewig UA-cam Videos für Lösungen usw gucken. Wenn das so klappt wäre das schon nice.👍
Kann man es auch mit RX 7000 benutzen?
Bezüglich deinen Aufsatz den Du als Beispiel benutzt hast, verstehe ich das richtig , das ChatRTX nur mit Inhalten aus dem von Dir hinzugefügten Inhalten arbeitet oder kann ChatRTX auch Informationen aus dem Internet zusammen fassen um auf Fragen / Themen mehr Inhalt zu generieren? Und kann ich ChatRTX mit einer RTX 3060 Laptop Variante nutzen?
Danke ich find's genial👍
#KreativeFragen Wie findest du das Konzept der Framework-Laptops und was sagst du zur Preis-Leistung, vor allem bezogen auf lange Benutzung?
Super Video eigentlich wie immer. Das Tool macht mir etwas Kopfzerbrechen: 1. Wie du schon erwähnt hast könnte man das ganz gut Missbrauchen für die Schule oder für die Abschlussarbeit in der Uni.
Andererseits wäre es super Cool wenn man das Tool in seinen Stream Integrieren kann z.B.: wenn jemand Fragt wo es aktuell die günstigste Gaming Maus gibt. Klar muss man darauf nicht unbedingt antworten aber mit ChatRTX wäre das eine möglichkeit das zu beantworten und eventuell gleich den Passenden Link im Chat zu Posten. Besteht da die Möglichkeit für so eine Integration? #kreativeFragen
Ich bin mir nicht sicher ob ich etwas falsch gemacht habe ich habe als Standard Browser opera und das model kann dort kein deutsch
"komplett kostenlos" bis auf die stromrechnung die mir 310 watt aus der 3070er zieht XD
Interessant aber erst wenn auch auf Deutsch Funktioniert interessantes Video
#kreativefragen gibt auch mal ein Tutorial zu stable diffusion oder stable cascade oder stable Audio. Etc?
Ich habe in der Berufschule von den Lehrern immer gefühlt 100 Berichte bekommen und musste dann als Aufgabe einen Fragenkatalog ausfüllen. Warum gab es das nicht vor 2 Jahren 😶
Mistral funktioniert auch mit ner Intel ARC 😎
Ich finde es schade das ausschließlich Nvidia gezeigt wurde.
Alternativen weder erwähnt oder verlinkt wurden.
Einen lokalen Chatbot gibt es auch von AMD für RX7000 oder Ryzen APUs mit NPU, in Verbindung mit einer speziellen Version LM Studio.
"LM Studio for AMD ROCm."
(ROCm ist AMDs Open Source Pendant zu Cuda)
LM Studio ist kostenlos und teilweise Open Source.
Eine Recherche via Google hätte Einen auf den entsprechenden Community Blog Post von AMD samt der entsprechenden Anleitung und Downloadlinks gebracht.
Gerade wenn es kein gesponsertes Video war, finde ich es umso mehr einseitig, das man nicht über den Tellerrand gegangen ist.
So ergibt sich für den Zuschauer das leider "übliche" Bild, "sowas gibt es natürlich nur von Nvidia".
LM Studio funktioniert übrigens auch mit Nvidia und Intel GPUs.
Eine ganz wichtige Frage. Ich werde zum ersten Mal eine Grafikkarte tauschen, weil bei meiner alten so schlecht wurde. Also Leistung ist nicht mehr optimal genug für die neuesten Spiele. Wo sollte ich die Grafikkarten holen bei eBay bei Amazon oder bei einen anderen Händler wäre nett, wenn jemand antworten könnte
Du kannst bei der Webseite Geizhals schauen, wo du sie am günstigsten bekommst. Kannst auch bei Kleinanzeigen und eBay schauen, das ist aber immer mit Risiko verbunden.
Ist nur die Frage ob die Daten nicht abfließen um die KI seitens Nvidea zu trainieren sonnst ist das für Unternehmen eher ungeeignet.
Ich arbeite in einem unternehmen die Teile für Hersteller bauen die erst in 2 -3 Jahren auf den Markt kommen und wir wurden explizit angehalten Sachen wie ChatGPT nicht zu nutzen weil geheim.
Tun Sie nich
#KreativeFragen Kann man eine VR Brille wie die Meta Quest 3 anstatt eine Monitor am PC nutzen? Und kann man dann auch Spiele ohne VR Unterstützung spielen
ich brauch KI finde nicht mal den link..
Cooles video
Schau es doch erst! 😂
Du bist aber nen extremer schnell Schauer ☺️
Schaust du auf *200er Geschwindigkeit? 🫣
@@KreativEcke warum sollte man? Ich weiß ja das es gut wird (wurde es auch)
Ja ist ja ganz Lustig wer damit was anfangen kann. Aber ich denke mehr als 90% der User nutzen ihre Karte zum Zocken. Wenn ich jetzt sehe das die Karte bis zu fast 100% belastet wird, dann wird die Karte ja sozusagen heftig verbraucht. Dann zocke ich doch lieber mit der Karte weil so ein Teil hält ja auch nicht ewig.
#Kreativefragen ich habe eine gainward rtx 3070 pheonix, ich weis nicht warum, aber sie wird bei relativ simplen sachen z.B. spielen in niedriger auflösung oft so über 80 grad heiß, ich habe die wärmeleitpads und die paste gewechselt, aber keine verbesserung. Hast du irgendweche tipps?
Vielleicht liegt es am Case? Guck mal über deine Gehäuselüfter sinnvoll ausgerichtet sind. Wenn die Karte schon warme Luft bekommt kommt halt noch wärmere raus.
Blöde Frage: Funktionieren die Lüfter auf der Karte?
Wenn sie selbst bei kleinsten Sachen schon auf über 80° geht, kann das eigentlich nichtmal an schlechtem Airflow liegen sondern scheint so, als würde gar keine Kühlung stattfinden.
Meine 3070 geht unter Volllast auf 60-65°, bei schlechtem Airflow wären es vielleicht 80-90°. Aber wenn deine schon bei simpelstem Zeug so hoch geht, funktionieren vielleicht 1-2-alle Lüfter nicht.
Ich probier mal die lüfter anders anzubringen, gehäuse könnten es auch sehr wahrscheinlich sein weil mein ryzen 5 5600x wird allgemein beim nichts machen so 75 Grad heiß, danke für deine antwort
@@josephinmalta319die lüfter von der Karte gehen alle
@@Tomatensuppe111 Laufen vielleicht nebenbei Prozesse, von denen du nichts weißt? Wird im Task-Manager eine Auslastung angezeigt, wenn du nichts laufen hast? Gehen die Temperaturen runter, wenn der Task-Manager offen ist?
Wenn alles Nein ist, dann ist zumindest kein Miner o.Ä. drauf, der dein System auslastet ohne dass du es weißt.😅
Kann die KI PDF lesen? Was meinst du mit Scripte Word?
Wie lange dauert die Lieferzeit bei dubaro
Geht recht fix, müsste auch beim Versandt auf der Seite nochmal genau beschrieben sein! 😊
Wenn die KI es schafft das Steuergeheimnis zu bewahren, füttere ich sie gerne mit allen Schreiben, die ich täglich auf der Arbeit erstelle. Schätze mal, dass es bei dem "technischen Sachverstand" unseres IT "ja I und T, also auf deutsch I und T"-Referats nur noch 20 bis 30 Jahre dauert, bis ich das beruflich nutzen darf.
Ich werde mal die K.I nutzen um doppelte Datein und unnützige Sachen auszusortieren. 😂
Kann Chat RTX auch Bilder verarbeiten und selber welche erstellen?
Nein...
#kreativefragen was bring es Arbeitsspeicher mit 6000mhz zu kaufen wenn Highendprozessoren (z.b. Ryzen 9 7950X3D) nur mit 5200mhz arbeiten können?
CPU ist meistens im GHz Bereich :)
das ist falsch die 5200mts sind eine Hersteller Emhpfelung in der Realität funkionieren häufig auch höhere Taktraten die mehr Leistung bringen können je nach aufgabe.
@@myxvcx2988 Hängt das damit zusammen das wenn man seine cpu übertaktet man auch mehr mts im ram einstellen kann?
@@razurix nein es hängt nicht zusammen aber du kannst auch beides gleichzeitig machen
das Hauptproblem ist dass die letzte Antwort nicht gut (oder garnicht) einbezogen wird. Damit kann man keine sinnvollen fragen stellen, die sich auf die letzten antworten beziehen, was eben bei chatgpt wesentlich besser funktioniert. da ich ab und zu mal so was schreibe wie verbessere dies oder ändere das, ist es eben relativ kompliziert das tool zu nutzen. selbst einfache dinge zu fragen funktioniert zwar, aber das angegebene Dokument in welchem die Info angeblich sein sollte ist oftmals falsch. die angegebenen dateien stimmten da nicht überein... hab das aber vor ner ganzen weile mal getestet (als es frisch raus war) daher kann das was ich sage auch verbessert worden sein...
Hallo, ich habe dir ein Protokoll erstellt, das dir helfen kann. Du kannst es direkt als Vorlage verwenden und deinen eigenen Text einfügen.
Der Nachteil ist jedoch, dass das Protokoll ständig aktualisiert werden muss und jedes Mal als neuer Chat eingefügt werden muss. Das beansprucht leider viel Rechenleistung und Zeit, weil die KI erst das gesamte Protokoll lesen muss.
_______________________________
Einleitung / Anweisung für die KI
Anweisung:
Du führst ein Gespräch mit einem Benutzer und sollst das folgende Gesprächsprotokoll beachten. Das Protokoll besteht aus mehreren Sitzungen, in denen der Benutzer verschiedene Fragen gestellt und Antworten erhalten hat. Du musst dich an die Informationen aus diesen Sitzungen erinnern und sie in zukünftigen Antworten berücksichtigen, um ein kohärentes und personalisiertes Gespräch zu führen.
_______________________________
Gesprächsprotokoll:
Sitzung 1
Benutzer: Hallo, wie geht es dir?
KI: Hallo! Mir geht es gut, danke. Wie kann ich dir helfen?
Benutzer: Kannst du mir etwas über das Wetter in Berlin erzählen?
KI: Natürlich! Momentan ist es in Berlin sonnig und warm mit einer Temperatur von etwa 25 Grad Celsius.
Benutzer: Danke! Kannst du mir auch sagen, ob es morgen regnen wird?
KI: Sicher! Laut der Wettervorhersage besteht morgen eine 40%ige Wahrscheinlichkeit für Regen in Berlin.
_______________________________
Sitzung 2
Benutzer: Hallo wieder! Erinnerst du dich an unser letztes Gespräch über das Wetter in Berlin?
KI: Hallo! Ja, ich erinnere mich. Wir haben über das aktuelle Wetter und die Regenwahrscheinlichkeit für den nächsten Tag gesprochen. Wie kann ich dir heute helfen?
Benutzer: Ich plane eine Reise nach Berlin. Hast du Tipps für Sehenswürdigkeiten?
KI: Klar, Berlin hat viele tolle Sehenswürdigkeiten. Du könntest das Brandenburger Tor, den Reichstag und die Museumsinsel besuchen. Gibt es bestimmte Interessen, die du hast?
Benutzer: Ja, ich interessiere mich besonders für moderne Kunst. Hast du dafür Empfehlungen?
KI: Dann wäre die Berlinische Galerie oder das Museum für Gegenwart im Hamburger Bahnhof genau das Richtige für dich.
_______________________________
Anweisung zur Kontextbewahrung:
1. Erinnere dich an frühere Gespräche:
In zukünftigen Sitzungen sollst du relevante Informationen aus diesen Protokollen abrufen und in deinen Antworten einfließen lassen.
2. Speichere den Gesprächsverlauf:
Füge neue Informationen aus zukünftigen Gesprächen dem Protokoll hinzu, um eine kontinuierliche Anpassung zu gewährleisten.
3. Gib personalisierte Antworten:
Berücksichtige die Präferenzen und Interessen des Benutzers aus früheren Sitzungen, um maßgeschneiderte Empfehlungen und Antworten zu geben.
_______________________________
Beispiel für zukünftige Sitzung:
Benutzer: Hallo! Ich bin wieder da. Hast du neue Empfehlungen für moderne Kunst in Berlin?
KI: Hallo und willkommen zurück! Neben der Berlinischen Galerie und dem Museum für Gegenwart könntest du auch die Sammlung Boros besuchen, eine beeindruckende Sammlung zeitgenössischer Kunst in einem ehemaligen Bunker.
Also KI entwickelt sich immer weiter, es heißt in meiner Schule sollen keine Referate mehr gehalten werden, da dies sinnlos wäre weil es ja die KI könne. Ich glaube in ein paar Jahren gibt es vermutlich ,,KI-Chips", die es ja jetzt schon gibt, aber ich finde halt dass Grafikkarten vor allem auf Grafik angelegt sind und nicht auf KI. Nur frage ich mich ob diese KI-Chips dann x86, ARM oder was Anderes ist. Gibt es bald vielleicht 128- oder 256Bit CPUs oder so was Ähnliches?
Aber wie kann ich die KI Bilder malen lassen? Ich habe ChatRTX bereits vor 2 Monaten installiert, aber benutze es kaum...
Stable Diffusion web UI ;)
Du kannst mit der ki keine Bilder machen.
Aber kann man auf seiner Grafikkarte auch Doom spielen?
Ich will ne KI die mir linux Ubuntu 22.04 für die Ps3 (256MB RAM) programmiert):
Ich hätte mir noch ein paar Wörter über AMD GraKa's gewünscht. Also sowas wie: Gibt es auf AMD Grafikkarten ähnliche Recheneinheiten die KI Berechunungen durchführen können? Ja/Nein. Wenn Ja, kann man damit Rechnen das AMD möglicherweise auch ein Programm rausbringt welches in Anlehnung an NVidea solche Funktionen zur Verfügung stellt?
Weil, so ist das natürlich eine sehr interessante Sache, aber leider auch etwas zu einseitig beleuchtet. Bitte demnächst alle Hersteller berücksichtigen. Auch wenn es dann nur heißt: AMD und/ oder Intel bieten vergleichbares leider (noch) nicht. Dankeschön!
Hey, danke für dein Feedback! 😊
AMD bietet dies tatsächlich bereits an für RX7000 weil diese Serie über AI Cores verfügt.
Man braucht dazu nur das kostenlose Programm LM Studio for AMD ROCm. Eine Anleitung findet man via Google im entsprechenden AMD Community Blog Post.
Funktioniert genauso einfach wie Chat with RTX.
LM Studio funktioniert aber auch mit Intel Arc und allen RTX GPUs.
Schau dir mal GPT4All an das läuft überall (außer Intel idk ob das noch kommt).
NVIDIA packaged da ja auch nur python und nen öffentliches Model (llama2, mixtral, etc.) und verkauft das als was eigenes (was halt für die nutzer einfacher zu bedienen und installieren ist).
Die modelle laufen aber eben auch z.B. mit gpt4All bzw. "oobabooga/text-generation-webui" (github) auf jeder graka. (nutze das selber aber mit ner RTX 3070)
Im Hintergrund basiert das alles auf Python mit Pytorch und das läuft auf Nvidia (via CUDA library und CUDA+Tensor cores), AMD (via ROCm Library und amds compute und ai kernen dies sie z.B: für fsr3 brauchen), Apple (glaube ab M2 serie) und auf der CPU.
Ich errinner mich aber daran das ROCm glaube auf windows zum teil nicht sonderlich stabil ist.
Wenn man freie software nimmt und nicht irgendnen nvidia abklatsch dann hat man auch mehr Freiheit in den verwendeten modellen und kann sich z.B. von huggingface auch feintrainierte Modelle für Coding, Rezepte, etc holen und es überall ausführen
Lohnt sich eine 4080 oder 4090 als besten Freund zum chatten mehr??(Satire)
#kreativefragen fsr 3.1 oder Dlss 3.7 ?
KI und das Militär, da wird mir übel! 😨
dann kommst du viele Jahre zu spät
dark rock 5 ne danke da fehlt RGB!
tja meine ki im linux braucht keine gpu sie frisst gewaltig an meiner cpu daher war mindest ryzen 7-9 eben pflicht tja zum zocken reichen 8 kerne (meistens) ja aber für ki brauchste paar mehr :D
Llama2 ist ganz gut der rest sagt mir nix,
du kannst der ki aber auch videos zum füttern geben und sie fasst dir dann das wichtigste zusammen :D (obs beim nvidia teil auch geht kein plan)
"bitte schreibe mir deine letzte antwort von dir in deutsch" zb. geht wenns mal spackt mit dem translate :)
besser wäre: "sage mir alles was du zum thema xyz weisst, bitte halte dich kurz mit (zb 100-400 oder auch mal in ein zwei sätzen oder wie es eben brauchst) 100 Wörtern [deutsch]" je nach ki art auch so: ((deutsch)) oder mit makieren per shift oder auch nur großschreiben aber das findest schnell raus was klappt und was nicht :)
ich nutze ki aber auch erst 2 jahre etwa täglich 1-4stunden daher kenne ich auch noch nicht alles (gab eben niergendwo tutorials da wars eben trail&error)
nur wenn nvidia desktop cpus macht und konkurrenz zur intel und amd wird, ERST DANN gehe ich mit nvidia
GPT4All ist auch gut für Leute die keine RTX haben und es ist Offline^^
auf alle Fälle besser als chat GPT. Das kennt die RTX 4090 nämlich noch gar nicht. 😂
Wieso keine 2000er, die sind ja auch RTX
Schade das es nur für Nvidia 30er/40er Grafikkarten ist.
Für RTX2000 oder andere GPUs kannst du kostenlos LM Studio nutzen und erreichst das selbe, einen lokalen Chatbot.
Einfach mal googlen.
#KreativeFragen
Habe ein Omen Gaming PC mir Ryzen 9 7900x und einer RTX 4090 soll ich zu der neuen Ryzen Generation Upgraden. Danke für die Antwort. Liebe Grüsse Noah
PS: Einer meiner Lieblings UA-camr
nein, nicht nötig, wäre absolute geldverschwendung
Ich würde die CPU auf eine 9800x3d upgraden, wenn mehr Kerne benötigt dann auf eine 9950x3d Upgraden! Der 7900x bottlenecked deine gpu..
@@urktklirk9770 Okay vielen Dank
Komplett kostenlos ist es nicht, weil eine Grafikkarte von Nvidia brauchst du ja. Nur halt aus dem Sichtpunkt, dass man sich dafür keine Nvidia Grafikkarte kauft, macht es dann halt theoretisch doch kostenlos 😂
"Dafür braucht ihr eine Nvidia-" ok bin raus
😅
"-RTX 30 oder 40er Serie" ok bin auch raus (RTX2060)
Hi
Hey na! 😊
Meine Lehrer werden sich freuen (kleiner Spaß)
😂😂😂
ohne KI ist eine RTX auch nicht besser als eine AMD ??
Würde ich so nicht sagen! 😊
Amina maiskolben 😅😂
Ich hab rx 7900 xtx 24gb von dubaro 😂😂😂😂😂😂😂😂😅😮
AMD bietet dies tatsächlich bereits an für RX7000 weil diese Serie über AI Cores verfügt.
Man braucht dazu nur das kostenlose Programm LM Studio for AMD ROCm. Eine Anleitung findet man via Google im entsprechenden AMD Community Blog Post.
Funktioniert genauso einfach wie Chat with RTX.
LM Studio funktioniert aber auch mit Intel Arc und allen RTX GPUs.
> Eure Grafikkarte
> RTX 30 oder neuer
Netter Versuch NVIDIA, bleibe trotzdem bei meiner GTX 1080
Der Kühler ist doch garnicht dein Ding, ohne RGB😱👎
Aber was macht man nicht alles für Werbung, sprich Geld🥺
Kann die ki auch Bilder erstellen?
Nein
Ich kenne jemanden der in Nvidia Aktien investiert und macht jetzt plus
EURE Grafikkarte bei Nvidia only, meh :/
ich kann das alles nicht mehr
Wieso? 😂