Microsoft (Phi3) humilla a Meta (Llama3) en solo 3 dias
Вставка
- Опубліковано 13 тра 2024
- Minutos:
00:00 Intro
00:46 Unsloth AI
01:30 Boston Dynamics Atlas
02:17 Stable Diffusion 3 API
03:16 VASA 1
05:07 Meta VR
05:55 IDM-VTON
06:46 Llama 3 y mucho más
14:20 Phi 3
15:30 Fine Web
17:33 Preguntas y respuestas
23:07 Correr Llama3 Phi3 y otros modelos en tu PC
Gracias por ver, suscribanse y siganme en Twitter. - Наука та технологія
Se ganó un suscriptor desde Colombia. No entiendo la mayor parte de lo que dice, pero sé que siguiendo sus videos lo haré.
Saludos.
Saludos hasta Colombia!
Si hay algo que no entiendes por mas que lo busques ponlo en los comentarios y lo aclaramos.
Hoy youtube me recomendó tu canal en el timeline, y quede impresionado, que excelente contenido, me sumo a tu lista de subscriptores y te mando saludos desde Colombia, gracias y te estaré viendo.
Gracias!
Buen resumen de noticias de IA, like, suscribir y compartir.
Gracias!
Que buen contenido
Sigue así hermano, saludos
Increible video, cuanto material. Muchas gracias!
Gracias a ti!
Nuevo suscriptor !! Excelente contenido🎉
Que bien encontrar información cómo esta🎉
Buen video amigo. Gracias por la info
genial
Muy bueno el video. Gracias.
Gracias a ti!
BRUTAL!!!
Soy desarrollador web (yo también trabajo desde Ubuntu 24.04) y es mi primer contacto con este tipo de información. No entendí muchas cosas 😁(quedo clarísimo en que este es un mundo aparte sobre el que tendría que estudiar mucho), pero sí me quedó bien claro que puedo sacar provecho de todo los desarrollos que se están haciendo en AI para mi profesión.
Así que comienzo a probar LM Studio a ver qué tal me va.
Muchísimas gracias por hacer todo este conocimiento accesible de forma gratuita. Tienes un nuevo suscritor y seguidor.
Fuerte abrazo y bendiciones desde Venezuela.
PS: aprovecho para preguntar... ¿Qué aplicación es esa que usas para ver la información del sistema en la barra (tray)?
Si, es todo un mundo 🌍.
Uso un programa llamado System Load Indicator version 0.4.
Saludos hasta Venezuela!
suscrito!
Saludos desde 🇵🇪
Saludos!
amazing content!!!! keep it up!
Me recomendaron este vídeo! like y suscribir. Pregunta para el próximo vídeo: ¿Por qué la mayoría de los tutoriales y la comunidad en gral. usa más Ollama que LMStudio? entiendo que por licencias sea una cosa, pero para el uso de hoy en día, "hogareño", sin implementación, cuál es el objetivo? si en LMStudio se puede hacer todo lo mismo y es todo interfaz gráfica, con 2 clicks y sin 1 comando, hasta para poner varios modelos en paralelo en un servidor. A esto se le puede conectar algún otro software como Anything LLM (que también es gratis y en Windows con 2 clicks se instala todo solo y lo único que hay que hacer es configurar la ip del servidor).
No lo se, yo creia que LMStudio era mas popular por las razones que expones.
Exelente video
palante parce, buena esa!
Excelente. Tienes nuevo suscriptor
Podrias explicar a que se refieren las siglas o letras que estas contenidas en los nombres de los modelos que tu al ver el nombre del modelo ya sabes que contiene? Me refiero a por ejemplo GGUF, o ONNX, Instruct, etc. Gracias amigo.
Apuntado, respondere esas tres nomenclaturas en el siguiente video. Y quizas pronto un video con toda la jerga de los LLMs. Gracias a ti!
@@RadientAI Super bien 👍👍, quedo atento a ese video, Gracias amigo!!!
Interesantes las novedades que publicas. Primera vez que veo tu canal. ¿Para cuando crees que VASA 1 estará disponible para el público en general?
Respuesta en el video de hoy.
Que excelente, gracias por todo ese trabajo
Excelente video! me parece genial que puedas resopnder preguntas de videos anteriores, iré a ver lo que tienes en tu canal, pero si quiero dejar una pregunta, existe algún software que permita pasarle a algún LLM cualquier tipo de archivo? (xml, html, bat, py, dyn, csv, xlsx, ppt, pdf, txt, etc) y hacer análisis sobre él tipo GPT-4 (la versión de pago)?
Si, hay frameworks que te permiten hacer esto, prueba con langchain.
Pd. Gracias, un saludo!
Se nota que le metes mucho cariño a los videos, espero que este canal crezca mucho. Saludos bro
Gracias!
excelente contenido, nuevo sub
Estoy intrigado con la estrategia de monetización de Stable Diffusion 3 a través de su API. ¿Creen que esta decisión les ayudará a superar sus problemas financieros?
Buena información compañero, se le agradece el video!
Gracias por haber contestado mis preguntas, voy a instalar Phi3 a ver qué tal, excelente contenido como siempre
Dale!
Buen video bro. La verdad, Phi-3 es como cuando nace un bebe muerto, jejejejeje. Llama-3 70B, esta a un nivel de lo mas grandes.
parece que no viste el video dice que PHI-3 fue lanzado ayer y yá supero a LLAMA 3
@@claudiov5554 Bueno bro, a eso me refiero, no supera a Llama3, ya hay pruebas.
@@jerynieve6656 este video dice que lo supera
¿Cuál es el modelo LLM más potente hasta ahora? Será Opus de Claude 3 ?
Exacto, es un título muy sensacionalista
Holaaa, gracias por tu contenido, me gustaría hacerte una consulta, qué me recomiendas si estoy planeando crear plataforma que será básicamente un Agente GPT enfocado en el área legal. Ahora que salió llama3 estoy intentando conectar llama3 a google collab para posteriormente correr google collab en una web. Me podrías recomendar o sugerir algo por favor. Gracias de antemano
Mi sugerencia es que uses tecnicas de RAG y/o finetunees el modelo en la legislacion de tu region para que funcione mejor.
En resumen, si buscas un modelo con una arquitectura innovadora que pueda especializarse en tareas específicas, Llama-3 podría ser la mejor opción. Por otro lado, si prefieres un modelo que sea eficiente y compacto para desplegar en dispositivos con recursos limitados, Phi-3 podría ser más adecuado. Ambos modelos representan avances significativos en el desarrollo de modelos de lenguaje compactos y eficientes.
Saludos, que modelos tienen soporte para las Intel ARC? gracias.
La verdad no lo sé, no las he usado nunca ni recuerdo a alguien que me haya hablado de su experiencia con esas GPUs.
Excelente canal q acabo de descubrir
Gracias. 🫂
O como puedo entrenar una ia para responder esactamente
Hola amigo te acabo de conecer veo que tienes mucho conocimiento en data science, mi pregunta es puedo aprender data science sin saber python o cualquier otro lenguaje_?
Te diria que no, pero principalmente porque no conozco las alternativas no-code para los data scientist, puede que haya otras herramientas que te hagan el apanio. Aun asi te invito a aprender, no necesitas ser un experto coder, con ayuda de chatgpt y sus equivalentes puedes apalancarte en tu aprendizaje y trabajo.
Si tuviera un par de GPUs, que soft o como podría usarlas como si fueran un recurso externo?, por decir ollama se conecte por red y utilice esas gpu
Te refieres a armar un servidor con un modelo que corra en las GPUs y otros usuarios se conecten y lo usen?
Si es así, hay varios repos de inferencía, yo usé el text-generation-inference en su momento, pero creo que lo hicieron de pago luego, forkea una versión antigua en caso de que no encuentres mejores.
Hace falta ser muy fanboy de mocosoft para poner este titulo al video. Phi-3 ni siquiera esta entre los 50 primeros del chatbot arena y llama-3 esta el cuarto. Los benchmarks se pueden falsear pero el desempeño final es lo que cuenta. Por cierto lm studio a menudo se equivoca con si puedes correr el modelo en tu gráfica. Otro problema es que el servidor integrado que tiene no funciona bien y las aplicaciones de agentes no detectan el endpoint.
buenas, muy buen video. me gustaría saber qué modelo y de qué forma puedo configurar un servidor con 16gb de ram - i3, con un llm que pueda consultar vía API REST.
imagino que podría ser Phi3 que es una versión mas pequeña... actualmente probé con llama3 de 7B pero sigue siendo lento.
Saludos desde Uruguay!
Saludos, respondido en el video de hoy!
Suscriptor numero 605
Quien sera el 666?
soy tu fan!! que crack!!
Me pareces conocido, pero no creo, he de estar confundiendome de persona. 🤔
te ganaste un sub por hablar de ai
nuevo suscriptor. sólo una observación. La pregunta en mi opinión debería ser:
¿Qué pesa más, un kilogramo de plumas o medio kilogramo de plomo?
A parte la respuesta que dió el modelo fué a la pregunta qué pesa menos y tu pregunta era qué pesa más no menos.
Cierto. 🤔
éste pibe sapeee!
Sapeeeeee!
Hay alguna api de IA que se pueda usar sin dar numeros de tarjetas de credito etc.? Saludos
Respondido!
a seguir disfrutantando de esta revolucioón!
Tal cual.
Hola, quiero un modelo que me ayude en Microbiologia, en este caso en la lectura interpretada del antibiograma, me gustaria incluirlo en el diseño de un equipo medico para este objetivo, debe correr en una MimiPC Asus Core i3 de 10ma Generacion con 8Giga Ram.. quiero que corra de forma local.. ¿Es posible? ¿Si es posible como?
Me da la sensacion que vas a necesitar finetunear uno pero lo checkeo en detalle para la proxima.
nuevo sub
En mis propias pruebas, llama 3 fue bastante mejor que phi 3
Llama3-70b si es muchisimo mejor de leeeejos. Llama3-8b va por ahi.
Phi3 no sirve pa mierda, está súper drogada esa IA
Puedes decirme cómo encontrar una inteligencia artificial que me ayude con quiz a responder preguntas de manera esacta preguntas tipo selección múltiple con unica respuesta gracias te agradecería mucho este si me puedes ayudar
Los LLMs modelan distribuciones de probabilidades, es algo complicado hacer que sean exactos. 🤔
Eso aún no lo puede hacer una IA, AÚN.
me recomiendas un modelo phi 3 sin censura 4Gb
Creo que no hay todavía, pero te puse alternativas en la descripción del video de hoy!
oye no es pregunta pero te vi luchando para escribir el nombre del fichero en consola y con TAB te lo autocompleta, una humilde colaboracion ;) y de paso me suscribo
En serio? Nooooo puede ser, llevo años usando la consola y no sabía de eso, el tiempo que me hubiese ahorrado, gracias!
Sabes cómo puedo comunicarme vía API?
Igual manasi
Comunicarte con que o con quien?
@@RadientAI ya lo logré, vía API
Hey te la rifas amigo, oye cuál es la capacidad de tu PC o laptop
Gracias, es lo basico para codear: ryzen 5600G, Ram 16gb, ssd 500GB, sata 1Tb y externo 2Tb.
Me sumo
Sub mas
Italiano en peru
Saludos!
Como estas en X?
@kadirtorrico
Mándame un mensaje por allí!
Gran vídeo, sin embargo, he probado Phi 3 mini en local y es una absoluta basura inservible. En cambio Llama 3 7B es increíblemente potente, claro y preciso, algo sorprendente teniendo en cuenta que es la versión 7B!.
Wow, entonces esperemos por Phi3 small, a ver si ese si le planta cara a LLama 3 7b!
Phi3??? Y que pasa con copilot???
Copilot?
El de github creo que usa alguna version destilada de GPT-4.
Bueno comparar Phi-3 con llama 3 no tiene mucho sentido, aunque entiendo el titulo para rascar un par de visitas
Phi-3 mini contra Llama3-8b tiene sentido para ver que tan bueno puede ser un modelo de la mitad de tamanio. Pero Phi-3 mini contra Llama3-70b tal como dices no tiene sentido. Ya son escalas muy diferentes.
@@RadientAI En lo que me referia es que no estan entrenados con la misma cantidad de Parametros ni con los mismos parametros, mientras que phi-3 mini lo entrenaron con alrededor de 8b de parametros bien estructurados a llama3 8b lo entrenaron con 15T de parametros, de todos modos no es hate al video estuvo muy bueno de hecho me suscribi por que me parecio muy bueno el contenido, solo que no estuve deacuerdo con el titulo del mismo
Esta re CHIFLADA la AI Phi3, le pregunte de que colores son la bandera de BOCA JR, y dale que dale que es Blanca y Roja y esos son los colores de su rival River Plate, jajajaja y los colores de River son el azul y amarillo que son los de Boca, Phi3 tiene todos los cables cruzados, no se con que carajo entrenaron a esa cosa.
Es que Boca es un equipo chico y por eso no lo conoce. Naaa mentira, jaja.
Lo puse a prueba y es cierto. Hay que tomar en cuenta que los modelos pequenios almacenan menos informacion, y muchos datos que pueden estar dentro del dataset quedan fuera de su conocimiento o quedan medio olvidados porque no estan dentro del area de precision que quieren maximizar.
me pasó lo mismo, yo le pregunté a phi3 que si conocía a "meta" (la empresa), y me empezó a hablar de la "metanotación", luego de preguntarle explicitamente por la empresa Meta, me dice "Entiendo que podrías estar buscando información sobre una empresa en particular y cómo se relaciona con conceptos como la metanotación." y yo como WTF, y luego de preguntarle sobre los modelos IA que ha hecho meta, me dijo GPT-3.
Tal como tu dices, tiene todos los cables cruzados.
Incluso, le dije, me refiero a los modelos "LLama" y me dijo:
A continuación, describo algunos miembros destacados de lo que podrías estar pensando al mencionar la familia "Llama":
1. **Microsoft's Phi (llamado así por Meta)**
WTF osea realmente está perdidisimo Phi3, nada comparable con llama 3, nisiquiera la versión 8B
He hecho muchas pruebas con el nuevo modelo de SD3 en sus 2 versiones y a{un tiene problemas con las manos, caras, etc... aunque menos que antes pero a{un siguen. No entiendo cómo lo hacen con Dall-e 3 pero este último, además de hacer bien todo lo anterior, cuando se pide integrar en la imagen varios personajes, es muy fácil entregar una descripción de cada persona y de 10 imágenes, por lo menos 8 salen bien. SD3 lo resuelve con menor exactitud. Cabe mencionar que yo trabajo mucho más con SD que con Dall-e pero dependiendo de qué desarrollo necesito, uso uno u otro. SD es mucho más maleable/adaptable gracias a sus loras, extensiones y un sin fin de otras cosas pero cuando se necesita algo sencillo (como para la mayoría es lo ideal) con SD no se cumple. De todas formas si lograrán lo que se consigue con Dall-e 3, SD sería lo mejor que existe y nadie buscaría otros modelos.
Si, Dalle3 sigue muy fielmente los prompts, lo que no me gusta es que las imágenes generadas tienen como un filtro puesto apropósito medio caricaturesco para que se noten que son IA. No sabía de esos problemas del SD3, igual sigue en beta por lo que probablemente lo mejoren. Gracias por compartir tu expertise.
Hola hay alguna manera de contactarte por privado, me gustaría hablar contigo sobre un tema, muchas gracias.
Yep, mis DMs siempre estan abiertos en Twitter.