Diese KI arbeitet so viel SCHNELLER als GPT-4
Вставка
- Опубліковано 7 лип 2024
- Groq.com ist Chiphersteller und zeigt, wohin die Zukunft von KI geht. Mit den aktuellen Open Source LLMs Llama2 und Mixtral 8x7b überzeugt die Lösung nicht nur in Sachen Performance, sondern auch beim Pricing.
----
Coole KI Use Cases:
- SEO KI Blog Engine: lsww.de/seo-ki-blog-engine/
- KI im Chatbot nutzen: • Erstelle mit Botpress ...
----
Blog & Newsletter: lsww.de
LSWW Community: lsww.de/community
Instagram: / lsww.de
Linkedin: / christianh1
----
Kapitel:
00:00 Intro groq.com
00:27 Verfügbare LLMs
00:54 Performance Test
02:35 Groq Cloud
03:55 Groq API Kosten
04:38 Open AI Kosten im Vergleich
Ich hab Groq mal ausprobiert. Eine schnellere KI habe ich bisher noch nicht gesehen. Allerdings denkt sie sich auf meine Standard-Test-Frage in affenartiger Geschwindigkeit auch die hahnebüchensten Inhalte aus (mit allen mir verfügbaren LLMs). Fantasie hat das Ding, das muss man ihm lassen ...
Ich werde es mir auf jeden Fall mal genauer ansehen. Preis und Geschwindigkeit sind ja echt super!
Bedenke, dass Groq aktuell keine eigene LLM bietet, sondern die Open Source Modelle Mixtral oder Llama nutzt - und die fantasieren dann.
@@christianhaefner Klar. Wir werden sehen. Aber, wie gesagt, die Geschwindigkeit ist heftig.
Inhaltlicher Unterschied wäre auch noch spannend.
Absolut. Hängt aber auch stark vom Anwendungsfall und den Prompts ab. In diesem Video hab ich mir daher bewusst erstmal nur die Performance angeschaut. Die Qualität werde ich mal in einem anderen Video anschauen.
@@christianhaefner aber an sich spannendes Video. Habe mich direkt angemeldet.
Solange es so schnell ist wie man liest ist es ok
Guter Punkt, da hast du recht ;-)
Aber nicht für API-Anwendungen. Wenn da der Response schneller zurückkommt, ist natürlich gut
@@christianhaefner