Microsoft (Phi3) humilla a Meta (Llama3) en solo 3 dias

Поділитися
Вставка
  • Опубліковано 13 тра 2024
  • Minutos:
    00:00 Intro
    00:46 Unsloth AI
    01:30 Boston Dynamics Atlas
    02:17 Stable Diffusion 3 API
    03:16 VASA 1
    05:07 Meta VR
    05:55 IDM-VTON
    06:46 Llama 3 y mucho más
    14:20 Phi 3
    15:30 Fine Web
    17:33 Preguntas y respuestas
    23:07 Correr Llama3 Phi3 y otros modelos en tu PC
    Gracias por ver, suscribanse y siganme en Twitter.
  • Наука та технологія

КОМЕНТАРІ • 135

  • @LuisMiguelBedoyaGomez
    @LuisMiguelBedoyaGomez 19 днів тому +10

    Se ganó un suscriptor desde Colombia. No entiendo la mayor parte de lo que dice, pero sé que siguiendo sus videos lo haré.
    Saludos.

    • @RadientAI
      @RadientAI  18 днів тому

      Saludos hasta Colombia!
      Si hay algo que no entiendes por mas que lo busques ponlo en los comentarios y lo aclaramos.

  • @Diego_UG
    @Diego_UG 18 днів тому +4

    Hoy youtube me recomendó tu canal en el timeline, y quede impresionado, que excelente contenido, me sumo a tu lista de subscriptores y te mando saludos desde Colombia, gracias y te estaré viendo.

  • @Maisonier
    @Maisonier 8 днів тому

    Buen resumen de noticias de IA, like, suscribir y compartir.

  • @jeanpiergaray8406
    @jeanpiergaray8406 19 днів тому +2

    Que buen contenido
    Sigue así hermano, saludos

  • @kalokoroteke
    @kalokoroteke 11 днів тому

    Increible video, cuanto material. Muchas gracias!

  • @Batagliap1
    @Batagliap1 19 днів тому

    Nuevo suscriptor !! Excelente contenido🎉

  • @20XXGrowth
    @20XXGrowth 19 днів тому

    Que bien encontrar información cómo esta🎉

  • @nikoarredon3732
    @nikoarredon3732 19 днів тому

    Buen video amigo. Gracias por la info

  • @patrickrios99
    @patrickrios99 19 днів тому

    genial

  • @fernandomgarin
    @fernandomgarin 15 днів тому

    Muy bueno el video. Gracias.

  • @drfcozapata
    @drfcozapata 14 днів тому

    BRUTAL!!!
    Soy desarrollador web (yo también trabajo desde Ubuntu 24.04) y es mi primer contacto con este tipo de información. No entendí muchas cosas 😁(quedo clarísimo en que este es un mundo aparte sobre el que tendría que estudiar mucho), pero sí me quedó bien claro que puedo sacar provecho de todo los desarrollos que se están haciendo en AI para mi profesión.
    Así que comienzo a probar LM Studio a ver qué tal me va.
    Muchísimas gracias por hacer todo este conocimiento accesible de forma gratuita. Tienes un nuevo suscritor y seguidor.
    Fuerte abrazo y bendiciones desde Venezuela.
    PS: aprovecho para preguntar... ¿Qué aplicación es esa que usas para ver la información del sistema en la barra (tray)?

    • @RadientAI
      @RadientAI  14 днів тому +1

      Si, es todo un mundo 🌍.
      Uso un programa llamado System Load Indicator version 0.4.
      Saludos hasta Venezuela!

  • @ambigus7
    @ambigus7 19 днів тому +1

    suscrito!

  • @oscarescalante4148
    @oscarescalante4148 15 днів тому

    Saludos desde 🇵🇪

  • @diegomoreno5599
    @diegomoreno5599 19 днів тому

    amazing content!!!! keep it up!

  • @Termonia
    @Termonia 8 днів тому

    Me recomendaron este vídeo! like y suscribir. Pregunta para el próximo vídeo: ¿Por qué la mayoría de los tutoriales y la comunidad en gral. usa más Ollama que LMStudio? entiendo que por licencias sea una cosa, pero para el uso de hoy en día, "hogareño", sin implementación, cuál es el objetivo? si en LMStudio se puede hacer todo lo mismo y es todo interfaz gráfica, con 2 clicks y sin 1 comando, hasta para poner varios modelos en paralelo en un servidor. A esto se le puede conectar algún otro software como Anything LLM (que también es gratis y en Windows con 2 clicks se instala todo solo y lo único que hay que hacer es configurar la ip del servidor).

    • @RadientAI
      @RadientAI  8 днів тому +1

      No lo se, yo creia que LMStudio era mas popular por las razones que expones.

  • @user-hw1jo9jd1j
    @user-hw1jo9jd1j 18 днів тому +1

    Exelente video

  • @OscarHincapieMahechaGafo
    @OscarHincapieMahechaGafo 19 днів тому

    palante parce, buena esa!

  • @roman_ramos
    @roman_ramos 19 днів тому +1

    Excelente. Tienes nuevo suscriptor

  • @pw4645
    @pw4645 18 днів тому

    Podrias explicar a que se refieren las siglas o letras que estas contenidas en los nombres de los modelos que tu al ver el nombre del modelo ya sabes que contiene? Me refiero a por ejemplo GGUF, o ONNX, Instruct, etc. Gracias amigo.

    • @RadientAI
      @RadientAI  18 днів тому +1

      Apuntado, respondere esas tres nomenclaturas en el siguiente video. Y quizas pronto un video con toda la jerga de los LLMs. Gracias a ti!

    • @pw4645
      @pw4645 17 днів тому

      @@RadientAI Super bien 👍👍, quedo atento a ese video, Gracias amigo!!!

  • @fernandodiaz8231
    @fernandodiaz8231 17 днів тому

    Interesantes las novedades que publicas. Primera vez que veo tu canal. ¿Para cuando crees que VASA 1 estará disponible para el público en general?

    • @RadientAI
      @RadientAI  15 днів тому

      Respuesta en el video de hoy.

  • @espaciomaker
    @espaciomaker 17 днів тому

    Que excelente, gracias por todo ese trabajo

  • @javier.vallejos
    @javier.vallejos 13 днів тому

    Excelente video! me parece genial que puedas resopnder preguntas de videos anteriores, iré a ver lo que tienes en tu canal, pero si quiero dejar una pregunta, existe algún software que permita pasarle a algún LLM cualquier tipo de archivo? (xml, html, bat, py, dyn, csv, xlsx, ppt, pdf, txt, etc) y hacer análisis sobre él tipo GPT-4 (la versión de pago)?

    • @RadientAI
      @RadientAI  12 днів тому +1

      Si, hay frameworks que te permiten hacer esto, prueba con langchain.
      Pd. Gracias, un saludo!

  • @El_Vitas
    @El_Vitas 19 днів тому

    Se nota que le metes mucho cariño a los videos, espero que este canal crezca mucho. Saludos bro

  • @CristianOrihuelaTorres
    @CristianOrihuelaTorres 19 днів тому

    excelente contenido, nuevo sub

  • @RelatosdeRiqueza
    @RelatosdeRiqueza 17 днів тому

    Estoy intrigado con la estrategia de monetización de Stable Diffusion 3 a través de su API. ¿Creen que esta decisión les ayudará a superar sus problemas financieros?

  • @Gerxen
    @Gerxen 17 днів тому

    Buena información compañero, se le agradece el video!

  • @malekfeki
    @malekfeki 18 днів тому

    Gracias por haber contestado mis preguntas, voy a instalar Phi3 a ver qué tal, excelente contenido como siempre

  • @jerynieve6656
    @jerynieve6656 19 днів тому +7

    Buen video bro. La verdad, Phi-3 es como cuando nace un bebe muerto, jejejejeje. Llama-3 70B, esta a un nivel de lo mas grandes.

    • @claudiov5554
      @claudiov5554 19 днів тому +3

      parece que no viste el video dice que PHI-3 fue lanzado ayer y yá supero a LLAMA 3

    • @jerynieve6656
      @jerynieve6656 19 днів тому +8

      @@claudiov5554 Bueno bro, a eso me refiero, no supera a Llama3, ya hay pruebas.

    • @claudiov5554
      @claudiov5554 19 днів тому

      @@jerynieve6656 este video dice que lo supera

    • @germancruz6618
      @germancruz6618 19 днів тому

      ¿Cuál es el modelo LLM más potente hasta ahora? Será Opus de Claude 3 ?

    • @audiorelatos8990
      @audiorelatos8990 19 днів тому +4

      Exacto, es un título muy sensacionalista

  • @alvarovinatea6532
    @alvarovinatea6532 18 днів тому +1

    Holaaa, gracias por tu contenido, me gustaría hacerte una consulta, qué me recomiendas si estoy planeando crear plataforma que será básicamente un Agente GPT enfocado en el área legal. Ahora que salió llama3 estoy intentando conectar llama3 a google collab para posteriormente correr google collab en una web. Me podrías recomendar o sugerir algo por favor. Gracias de antemano

    • @RadientAI
      @RadientAI  18 днів тому

      Mi sugerencia es que uses tecnicas de RAG y/o finetunees el modelo en la legislacion de tu region para que funcione mejor.

  • @noteultra4209
    @noteultra4209 16 днів тому +1

    En resumen, si buscas un modelo con una arquitectura innovadora que pueda especializarse en tareas específicas, Llama-3 podría ser la mejor opción. Por otro lado, si prefieres un modelo que sea eficiente y compacto para desplegar en dispositivos con recursos limitados, Phi-3 podría ser más adecuado. Ambos modelos representan avances significativos en el desarrollo de modelos de lenguaje compactos y eficientes.

  • @geekrojo
    @geekrojo 15 днів тому

    Saludos, que modelos tienen soporte para las Intel ARC? gracias.

    • @RadientAI
      @RadientAI  15 днів тому

      La verdad no lo sé, no las he usado nunca ni recuerdo a alguien que me haya hablado de su experiencia con esas GPUs.

  • @alejandrosanchez1740
    @alejandrosanchez1740 2 дні тому

    Excelente canal q acabo de descubrir

  • @blacklion1108
    @blacklion1108 19 днів тому

    O como puedo entrenar una ia para responder esactamente

  • @gnostman1
    @gnostman1 18 днів тому

    Hola amigo te acabo de conecer veo que tienes mucho conocimiento en data science, mi pregunta es puedo aprender data science sin saber python o cualquier otro lenguaje_?

    • @RadientAI
      @RadientAI  18 днів тому

      Te diria que no, pero principalmente porque no conozco las alternativas no-code para los data scientist, puede que haya otras herramientas que te hagan el apanio. Aun asi te invito a aprender, no necesitas ser un experto coder, con ayuda de chatgpt y sus equivalentes puedes apalancarte en tu aprendizaje y trabajo.

  • @sebastianarce4268
    @sebastianarce4268 15 днів тому

    Si tuviera un par de GPUs, que soft o como podría usarlas como si fueran un recurso externo?, por decir ollama se conecte por red y utilice esas gpu

    • @RadientAI
      @RadientAI  15 днів тому

      Te refieres a armar un servidor con un modelo que corra en las GPUs y otros usuarios se conecten y lo usen?
      Si es así, hay varios repos de inferencía, yo usé el text-generation-inference en su momento, pero creo que lo hicieron de pago luego, forkea una versión antigua en caso de que no encuentres mejores.

  • @paelnever
    @paelnever 17 днів тому +1

    Hace falta ser muy fanboy de mocosoft para poner este titulo al video. Phi-3 ni siquiera esta entre los 50 primeros del chatbot arena y llama-3 esta el cuarto. Los benchmarks se pueden falsear pero el desempeño final es lo que cuenta. Por cierto lm studio a menudo se equivoca con si puedes correr el modelo en tu gráfica. Otro problema es que el servidor integrado que tiene no funciona bien y las aplicaciones de agentes no detectan el endpoint.

  • @danielfacelli
    @danielfacelli 17 днів тому

    buenas, muy buen video. me gustaría saber qué modelo y de qué forma puedo configurar un servidor con 16gb de ram - i3, con un llm que pueda consultar vía API REST.
    imagino que podría ser Phi3 que es una versión mas pequeña... actualmente probé con llama3 de 7B pero sigue siendo lento.
    Saludos desde Uruguay!

    • @RadientAI
      @RadientAI  15 днів тому

      Saludos, respondido en el video de hoy!

  • @jonathanantoni5779
    @jonathanantoni5779 18 днів тому +1

    Suscriptor numero 605

  • @DanielNuske
    @DanielNuske 17 днів тому

    soy tu fan!! que crack!!

    • @RadientAI
      @RadientAI  17 днів тому

      Me pareces conocido, pero no creo, he de estar confundiendome de persona. 🤔

  • @ssc00ercer32
    @ssc00ercer32 15 днів тому

    te ganaste un sub por hablar de ai

  • @enriquealejandrocancun
    @enriquealejandrocancun 18 днів тому

    nuevo suscriptor. sólo una observación. La pregunta en mi opinión debería ser:
    ¿Qué pesa más, un kilogramo de plumas o medio kilogramo de plomo?
    A parte la respuesta que dió el modelo fué a la pregunta qué pesa menos y tu pregunta era qué pesa más no menos.

  • @ksk5058
    @ksk5058 8 днів тому

    éste pibe sapeee!

  • @esarmiento7
    @esarmiento7 17 днів тому

    Hay alguna api de IA que se pueda usar sin dar numeros de tarjetas de credito etc.? Saludos

  • @IvanCoronel5
    @IvanCoronel5 18 днів тому

    a seguir disfrutantando de esta revolucioón!

  • @penta12345
    @penta12345 18 днів тому +1

    Hola, quiero un modelo que me ayude en Microbiologia, en este caso en la lectura interpretada del antibiograma, me gustaria incluirlo en el diseño de un equipo medico para este objetivo, debe correr en una MimiPC Asus Core i3 de 10ma Generacion con 8Giga Ram.. quiero que corra de forma local.. ¿Es posible? ¿Si es posible como?

    • @RadientAI
      @RadientAI  18 днів тому

      Me da la sensacion que vas a necesitar finetunear uno pero lo checkeo en detalle para la proxima.

  • @yordyfelixnt6317
    @yordyfelixnt6317 19 днів тому

    nuevo sub

  • @gonzalobruna7154
    @gonzalobruna7154 18 днів тому +4

    En mis propias pruebas, llama 3 fue bastante mejor que phi 3

    • @RadientAI
      @RadientAI  18 днів тому +2

      Llama3-70b si es muchisimo mejor de leeeejos. Llama3-8b va por ahi.

    • @mundy4135
      @mundy4135 17 днів тому +5

      Phi3 no sirve pa mierda, está súper drogada esa IA

  • @blacklion1108
    @blacklion1108 19 днів тому

    Puedes decirme cómo encontrar una inteligencia artificial que me ayude con quiz a responder preguntas de manera esacta preguntas tipo selección múltiple con unica respuesta gracias te agradecería mucho este si me puedes ayudar

    • @RadientAI
      @RadientAI  18 днів тому

      Los LLMs modelan distribuciones de probabilidades, es algo complicado hacer que sean exactos. 🤔

    • @salvadorx1
      @salvadorx1 16 днів тому

      Eso aún no lo puede hacer una IA, AÚN.

  • @Daesmotor
    @Daesmotor 17 днів тому

    me recomiendas un modelo phi 3 sin censura 4Gb

    • @RadientAI
      @RadientAI  15 днів тому

      Creo que no hay todavía, pero te puse alternativas en la descripción del video de hoy!

  • @OrlandoNuske
    @OrlandoNuske 15 днів тому

    oye no es pregunta pero te vi luchando para escribir el nombre del fichero en consola y con TAB te lo autocompleta, una humilde colaboracion ;) y de paso me suscribo

    • @RadientAI
      @RadientAI  15 днів тому

      En serio? Nooooo puede ser, llevo años usando la consola y no sabía de eso, el tiempo que me hubiese ahorrado, gracias!

  • @inteligenciafutura
    @inteligenciafutura 19 днів тому

    Sabes cómo puedo comunicarme vía API?

  • @felipevalles3831
    @felipevalles3831 19 днів тому

    Hey te la rifas amigo, oye cuál es la capacidad de tu PC o laptop

    • @RadientAI
      @RadientAI  18 днів тому

      Gracias, es lo basico para codear: ryzen 5600G, Ram 16gb, ssd 500GB, sata 1Tb y externo 2Tb.

  • @GibGiab-gc7qm
    @GibGiab-gc7qm 19 днів тому

    Me sumo
    Sub mas
    Italiano en peru

  • @neoemprendedor5115
    @neoemprendedor5115 15 днів тому

    Como estas en X?

    • @RadientAI
      @RadientAI  14 днів тому

      @kadirtorrico
      Mándame un mensaje por allí!

  • @akhathos1618
    @akhathos1618 10 днів тому

    Gran vídeo, sin embargo, he probado Phi 3 mini en local y es una absoluta basura inservible. En cambio Llama 3 7B es increíblemente potente, claro y preciso, algo sorprendente teniendo en cuenta que es la versión 7B!.

    • @RadientAI
      @RadientAI  9 днів тому

      Wow, entonces esperemos por Phi3 small, a ver si ese si le planta cara a LLama 3 7b!

  • @dark-taku7937
    @dark-taku7937 18 днів тому

    Phi3??? Y que pasa con copilot???

    • @RadientAI
      @RadientAI  18 днів тому

      Copilot?
      El de github creo que usa alguna version destilada de GPT-4.

  • @over9332
    @over9332 18 днів тому

    Bueno comparar Phi-3 con llama 3 no tiene mucho sentido, aunque entiendo el titulo para rascar un par de visitas

    • @RadientAI
      @RadientAI  18 днів тому

      Phi-3 mini contra Llama3-8b tiene sentido para ver que tan bueno puede ser un modelo de la mitad de tamanio. Pero Phi-3 mini contra Llama3-70b tal como dices no tiene sentido. Ya son escalas muy diferentes.

    • @over9332
      @over9332 17 днів тому

      @@RadientAI En lo que me referia es que no estan entrenados con la misma cantidad de Parametros ni con los mismos parametros, mientras que phi-3 mini lo entrenaron con alrededor de 8b de parametros bien estructurados a llama3 8b lo entrenaron con 15T de parametros, de todos modos no es hate al video estuvo muy bueno de hecho me suscribi por que me parecio muy bueno el contenido, solo que no estuve deacuerdo con el titulo del mismo

  • @mundy4135
    @mundy4135 18 днів тому

    Esta re CHIFLADA la AI Phi3, le pregunte de que colores son la bandera de BOCA JR, y dale que dale que es Blanca y Roja y esos son los colores de su rival River Plate, jajajaja y los colores de River son el azul y amarillo que son los de Boca, Phi3 tiene todos los cables cruzados, no se con que carajo entrenaron a esa cosa.

    • @RadientAI
      @RadientAI  18 днів тому +1

      Es que Boca es un equipo chico y por eso no lo conoce. Naaa mentira, jaja.
      Lo puse a prueba y es cierto. Hay que tomar en cuenta que los modelos pequenios almacenan menos informacion, y muchos datos que pueden estar dentro del dataset quedan fuera de su conocimiento o quedan medio olvidados porque no estan dentro del area de precision que quieren maximizar.

    • @gonzalobruna7154
      @gonzalobruna7154 17 днів тому +1

      me pasó lo mismo, yo le pregunté a phi3 que si conocía a "meta" (la empresa), y me empezó a hablar de la "metanotación", luego de preguntarle explicitamente por la empresa Meta, me dice "Entiendo que podrías estar buscando información sobre una empresa en particular y cómo se relaciona con conceptos como la metanotación." y yo como WTF, y luego de preguntarle sobre los modelos IA que ha hecho meta, me dijo GPT-3.
      Tal como tu dices, tiene todos los cables cruzados.

    • @gonzalobruna7154
      @gonzalobruna7154 17 днів тому

      Incluso, le dije, me refiero a los modelos "LLama" y me dijo:
      A continuación, describo algunos miembros destacados de lo que podrías estar pensando al mencionar la familia "Llama":
      1. **Microsoft's Phi (llamado así por Meta)**
      WTF osea realmente está perdidisimo Phi3, nada comparable con llama 3, nisiquiera la versión 8B

  • @darkalden
    @darkalden 17 днів тому

    He hecho muchas pruebas con el nuevo modelo de SD3 en sus 2 versiones y a{un tiene problemas con las manos, caras, etc... aunque menos que antes pero a{un siguen. No entiendo cómo lo hacen con Dall-e 3 pero este último, además de hacer bien todo lo anterior, cuando se pide integrar en la imagen varios personajes, es muy fácil entregar una descripción de cada persona y de 10 imágenes, por lo menos 8 salen bien. SD3 lo resuelve con menor exactitud. Cabe mencionar que yo trabajo mucho más con SD que con Dall-e pero dependiendo de qué desarrollo necesito, uso uno u otro. SD es mucho más maleable/adaptable gracias a sus loras, extensiones y un sin fin de otras cosas pero cuando se necesita algo sencillo (como para la mayoría es lo ideal) con SD no se cumple. De todas formas si lograrán lo que se consigue con Dall-e 3, SD sería lo mejor que existe y nadie buscaría otros modelos.

    • @RadientAI
      @RadientAI  15 днів тому

      Si, Dalle3 sigue muy fielmente los prompts, lo que no me gusta es que las imágenes generadas tienen como un filtro puesto apropósito medio caricaturesco para que se noten que son IA. No sabía de esos problemas del SD3, igual sigue en beta por lo que probablemente lo mejoren. Gracias por compartir tu expertise.

  • @JoseMiguelSanzCatalan
    @JoseMiguelSanzCatalan 11 днів тому

    Hola hay alguna manera de contactarte por privado, me gustaría hablar contigo sobre un tema, muchas gracias.

    • @RadientAI
      @RadientAI  10 днів тому

      Yep, mis DMs siempre estan abiertos en Twitter.