Modelo DIMINUTO mejora a CHATGPT 🤯 ¡Puede ejecutarse en un MÓVIL!

Поділитися
Вставка
  • Опубліковано 23 кві 2024
  • Microsoft presenta PHI 3 Mini. Un modelo diminuto que compite con ChatGPT
    Recibe toda la INFO de mi ACADEMIA:
    👉 bit.ly/curso_ia_
    SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
    👉 bit.ly/ia-newsletter_
    ---
    ENLACES DEL VIDEO
    👉 huggingface.co/chat
    ---
    ✅ SUCRÍBETE A MI CANAL: bit.ly/suscribirse_XM​​​​
    📕 Descarga mi guía gratuita para Stable Diffusion:
    👉 snip.ly/guia-IA
    ---
    Instagram: / xavier_mitjana
    Twitter: / xavier_mitjana
    Contacto comercial: xavmit.yt@gmail.com
    *Al realizar una compra a través de cualquiera de estos enlaces de afiliado, recibimos una comisión muy pequeña sin costo adicional para ti. Esto me ayuda a hacer el canal sostenible y seguir ofreciendo contenido de calidad.
    #inteligenciaartificial
  • Наука та технологія

КОМЕНТАРІ • 73

  • @neoemprendedor5115
    @neoemprendedor5115 Місяць тому +9

    Que buenos andan las coorporaciones! Llama, Phi, Grok, etc.

  • @AventurasdeColores
    @AventurasdeColores Місяць тому +4

    SI me permites un consejo para tus videos, creo que sería muy interesante que hicieras un video sobre Ollama + Open Web UI. Sería muy interesante para que la gente que te ve sepa como usar estos modelos en su propio ordenador e incluso en el movil usando Open Web Ui como servidor. PHI 3 ya estaba disponible esta mañana en Ollama y la posibilidad de combinar modelos como por ejemplo Llava y Llama abre un gran abanico de posibilidades.

    • @XavierMitjana
      @XavierMitjana  Місяць тому +5

      Hola, pues precisamente estaba trabajando en un video similar. Aunque no he apostado por en este caso, pero me lo apunto!

  • @UrsulaCallistis
    @UrsulaCallistis Місяць тому +4

    Ojala en un futuro se puedan crear APKs para Android que de puedan usar estos modelos de manera local más fácil, sé con herramientas como Termux se puede usar, pero hay que dar muchos pasos

  • @SadRacHabarzua
    @SadRacHabarzua Місяць тому +2

    Me parece muy interesante y esperanzador la miniaturización, abre la posibilidad a poder instalarlo en un servidor comun con docker a un nivel decente.

    • @XavierMitjana
      @XavierMitjana  Місяць тому +2

      Exacto, abre muchas posibilidades de que nosotros tengamos el control de la herramienta y no solo eso, de que gracias al fine tuning podamos mejorar modelos pequeños para tareas específicas más fácilmente. En realidad que realmente la miniaturización y optimización de modelos sea factible, casi que es mejor noticia que aparezca un GPT-5 más potente.

  • @Vilma1169
    @Vilma1169 28 днів тому

    Gracias Xavier...

  • @jobmanuelnogueraperez7889
    @jobmanuelnogueraperez7889 Місяць тому

    Excelente modelo para moviles Android, siempre habia para laptops o PC.

  • @siulhisaleehernandezsantos6672
    @siulhisaleehernandezsantos6672 Місяць тому

    Gracias

  • @maynorelias3725
    @maynorelias3725 Місяць тому

    Gracias por el GPT, nítido.

  • @WalbertoFlores
    @WalbertoFlores Місяць тому +2

    ¿Qué pasos se siguen para ejecutarlo en móvil?

  • @swiftie6934
    @swiftie6934 Місяць тому +3

    habria que ver desafios logicos mas dificiles para ver si es capaz de los mas dificiles

  • @sciexp
    @sciexp Місяць тому +1

    Qué interesante lo del móvil... En 2023 ya consiguieron hacer fotos por IA en un móvil...

  • @ismaelmoraleda228
    @ismaelmoraleda228 Місяць тому

    ahora mismo esperando una versión sin censura de PHI-3, es muy frustrante que no te quiera responder a preguntas un poco polémicas

  • @raulcamposnascimento
    @raulcamposnascimento Місяць тому +1

    Dessa vez fui mais rápido que o vídeo :) já rodei no ollama o phi3, roda rápido no meu PC véio!!

  • @centrointernetbds
    @centrointernetbds Місяць тому +1

    Seguramente lo que hicieron fue resumir y ordenar datos de manera muy eficiente usando gpt 4.5, y con esos datos perfectamente ordenados y filtrados es con los que han entrenado el modelo pequeño.

    • @XavierMitjana
      @XavierMitjana  Місяць тому +1

      Es una posibilidad, de hecho, se especula que muchos modelos han sido entrenados de este modo.

  • @joanmanuelsdelvalle
    @joanmanuelsdelvalle Місяць тому +1

    Si es mejor que chatGPT ya podemos comenzar a comparar a los nuevos competidores con este! Y empezar a dejar al otro un poco más tranquilo!
    Pobre chatGPT han salido tantos que lo superan pero todos siempre lo usan para compararse 😮😊

    • @XavierMitjana
      @XavierMitjana  Місяць тому

      En realidad ya no es tanto que ChatGPT sea el mejor, sino que es la referencia, vamos, el top of mind. Decir que mejora a Llama 3 8b, era otro enfoque que tenía pensado por ser más reciente.

  • @antivisible
    @antivisible Місяць тому

    14:41. Preguntando a ChatGPT, con el mismo ejercicio de contar las palabras de su mensaje, observo que se aproxima pero no es exacto, me asegura que sí cuenta palabras, no tokens, por lo que le vuelvo a preguntar si tras elaborar su respuesta existe la posibilidad de que sea luego alterada. Me responde: "Sí, es posible que haya ajustes o cambios en la respuesta después de ser generada inicialmente. Esto puede ocurrir debido a procesos de revisión y optimización que buscan mejorar la calidad y precisión de la información proporcionada. En este caso, es importante tener en cuenta que los ajustes posteriores pueden alterar el número de palabras, tokens u otros aspectos de la respuesta original. ¿Quieres saber más sobre cómo funcionan estos procesos de revisión?"

  • @LandareeLevee
    @LandareeLevee Місяць тому

    No relacionado, pero ahora que parece que ChatGPT por fin está activando la memoria persistente (al menos usando VPN se puede usar desde España), ¿algún tutorialillo o análisis sobre cómo sacar buen partido de esta función, Xavier? No termino de ver la funcionalidad diferenciada-más allá de lo evidente-respecto a las Custom Instructions o los GPTs personalizados. La gente que veo hablando del tema está entusiasmada, ahora que por fin les está llegando, pero claro, pocos han experimentado para sacar truquillos, escenarios en que sirva mejor que las CI…

  • @centrointernetbds
    @centrointernetbds Місяць тому +1

    Lo interesante podría ser descargarlo y correrlo en nuestro ordenador o móvil.

  • @alexisdawn6255
    @alexisdawn6255 Місяць тому +1

    Para que todos queden conformes: Movile *

  • @raulcamposnascimento
    @raulcamposnascimento Місяць тому +1

    ollama run phi3 e BOOMMMM

  • @capablancastyle
    @capablancastyle Місяць тому

    hola buenas noches, aun estos modelos conservan la arquitectura transformers?

    • @XavierMitjana
      @XavierMitjana  Місяць тому +1

      Sí, creo que sí. Voy a investigar cuales trabajan con arquitectura Mamba, pero en este caso no he visto en ningún sitio mención a una arquitectura diferente.

  • @segunda_parte
    @segunda_parte Місяць тому

    Es posible que el error en el conteo de palabars se deba a la cantidad de tokens utilizados en cada palabra para el castellano.
    Tal vez podrias cambiar la pregunta por cuantas silabas, vocales o consonantes va a responder.
    Muchas gracias por el video.

    • @XavierMitjana
      @XavierMitjana  Місяць тому +1

      Hola, en realidad es un ejercicio en el que suelen fallar la mayoría, tanto en español como en inglés. En este caso no creo que tenga que ver con la relación tokens palabras, sino en el hecho de como funciona esta tecnología, que lo hace prediciendo los siguientes bloques, por lo que en el momento en que empieza a escribir no sabe exactamente cuantos tokens va a consumir.

    • @segunda_parte
      @segunda_parte Місяць тому

      @@XavierMitjana Tienes razon, lo he intentado con varios modelos y fallan. Hasta he intentado darles un metodo de solucion y aun fallan.

  • @user-sx6nd8zl5k
    @user-sx6nd8zl5k Місяць тому

    Lo testeo en local y en red, y alucina horrible el modelo, pienso que parte de la falla de que alucina es por el entrenamiento con datos sintéticos, no importa como ajustes la temperatura para que sea más preciso el modelo alucina demasiado, sobre todo el modelo mas pequeño el phi 3 mini en el test de escribir 10 oraciones que terminen con la palabra 'manzana una vez cero aciertos de 10 ,segundo intento 1aciertos de 10

  • @Kira58222
    @Kira58222 Місяць тому

    Hablando de un tema aparte me pareció curioso, interesante y raro es que una vez me puse a trabajar con gémini y gpt 3.5 y me di cuenta de que hay varias cosas donde responden exactamente igual con las mismas palabras, frases y párrafos cosa que en cierto modo considero q no debería de pasar si asumimos q se supone q son IA diferentes de compañías distintas entonces me parece raro eso................ no se si alguien más le ha pasado….

    • @XavierMitjana
      @XavierMitjana  Місяць тому +1

      Se dice que hay modelos que están entrenados sobre outputs de GPT-4. Esta podría ser la razón.

    • @Kira58222
      @Kira58222 Місяць тому

      @@XavierMitjana Mmm entiendo así si me la gana y entiendo entonces el por qué.....

  • @alberchigo7391
    @alberchigo7391 Місяць тому

    Lo de móvil con B me ha provocado un desprendimiento de retina 😆

    • @XavierMitjana
      @XavierMitjana  Місяць тому

      Lapsus del catalán... ya está corregido

  • @AxsRock
    @AxsRock Місяць тому

    Y en qué mejora a ChatGPT?

  • @JasonYate
    @JasonYate Місяць тому +1

    Mobile* 👌

  • @MigueldelaHoz
    @MigueldelaHoz Місяць тому

    Siempre cometéis el mismo error con los "kilos". Para la IA, un kilo son mil unidades, pero no le indicas de qué, por lo que ella infiere que son de "algo" abstracto. Para obtener una respuesta basada en realidad, debéis indicarle que estáis comparando kilogramos y no kilos. Te aseguro que encontrarás muchos menos errores en ese tipo de preguntas.

    • @XavierMitjana
      @XavierMitjana  Місяць тому

      Hola Miguel, en realidad por la manera como aprenden las IAs no es así. Aprenden por contexto y relación de palabras dentro de grandes corpus de texto. Y kilo, sin el gramo, es algo ampliamente utilizado como sinónimo de kilogramo. De hecho, si le preguntas a ambos modelos que es un kilo, responden que es un kilogramo.

  • @ser12369
    @ser12369 Місяць тому

    ya tiene memoria chat gpt !!!!

  • @Muferchus
    @Muferchus Місяць тому +2

    O es MOBIL o MÓVIL.

  • @chicoverde
    @chicoverde Місяць тому +3

    MoViL 😅

    • @Nortem
      @Nortem Місяць тому

      Móvil 😊

  • @RelatosdeRiqueza
    @RelatosdeRiqueza Місяць тому

    Microsoft acaba de lanzar un modelo de IA tan pequeño que cabe en un móvil y compite con GPT-3.5. ¿Estamos ante el fin de los grandes modelos en la nube? 🤔

  • @centrointernetbds
    @centrointernetbds Місяць тому +1

    Se puede descargar?

    • @XavierMitjana
      @XavierMitjana  Місяць тому +1

      Creo que ya se puede, lo presentaron ayer, pero seguramente ya está disponible en hugging face

  • @FedericoPfefferkorn
    @FedericoPfefferkorn Місяць тому

    El tema de los calcetines no esta muy trillado ya?... capaz que la IA lo extraiga de Internet directamente

    • @XavierMitjana
      @XavierMitjana  Місяць тому

      Es posible, pero también te diré que en una de las pruebas Phi3 ha sido el que me ha dado la respuesta mejor argumentada, a nivel de detalle y matiz. También es verdad que no lo resuelve el 100% de las veces, por lo que no creo que esté memorizado.

  • @abell46s
    @abell46s Місяць тому

    OH NOOOOOOOOOO NEYMAR SE A LESIONADO DE NUEVO AL ESCUCHAR ESA RESPUESTA ... raro no seria ya esta en el piso revolcandose

  • @BRODAC71
    @BRODAC71 Місяць тому

    Hay que aclarar que castellano es el español hablado en Castilla, eso sí hay que corregirlo, pero es sólo una deformación metalinguística proveniente de la anglosfera, a la que que le ha interesado deformar el español como idioma, por percibir las tremendas desventajas con respecto a sus tecnologías comunicacionales de factura reciente. Por lo demás todo bien. A este respecto puede aventurarse que al ser el español una tecnología superior en múltiples aspectos, el futuro de la inteligencia artificial puede estarse viendo determinado, comprometido y sobrepotenciado a través del reconocimiento de esta supervesátil lengua. Tal vez el mundo tenga que aprender a hablar, pensar y programar en español.

  • @RubenSada
    @RubenSada Місяць тому

    Hoy probé "Llama 3" y no es capaz de componer una sola estrofa en décima espinela correctamente. La décima espinela es un estilo lírico basado en 10 versos octosílabos, pero resulta que (hasta el momento) ninguna I.A. sabe medir algo tan simple como un verso de 8 sílabas, y mete versos de 10, 12 ¡y hasta algunos de más de 20 sílabas! Por el momento la I.A. no puede reemplazar a ningún buen poeta. Ahora bien, para escribir cualquier burrada y poner ahí que "esto es una poesía", anda bien. Felizmente, por ahora el poeta no pudo ser reemplazado. Ni siquiera nos ayuda en nada al momento de componer versos métricos, al contrario, confunde a las personas que no saben nada de poesía y creen que lo que les devuelve la I.A. es "un poema".

    • @ismaelmoraleda228
      @ismaelmoraleda228 Місяць тому

      los modelos de lenguaje no están pensados para sustituir a nadie, es solo una máquina inteligente que ayuda con algunas tareas como buscar información y tener conversaciones de todo tipo con el usuario. Tiene el razonamiento suficiente para hacer una cierta cantidad de tareas limitadas

    • @RubenSada
      @RubenSada Місяць тому

      @@ismaelmoraleda228 Entiendo, pero ¿algo tan básico como contar bien las sílabas, no puede hacerlo? Creo que todavía falta mucho para siquiera temer de que pueda reemplazar al ser humano en tareas básicas.

    • @ChristopherAguilaH
      @ChristopherAguilaH 29 днів тому

      No puede porque la AI no cuenta silabas onpalabras, ella funciona por tokken lo cual no se cuenta como palabras en si. Es por eso si li das la instrucción de escribir un texto de 300 palabras justas jamas te dara 300 palabras justas.
      La Ai se usa como herramienta de ayuda en diferentes disciplinas. ​@@RubenSada

  • @icerimuru
    @icerimuru Місяць тому

    Móvil es con V de vaca javi 😮

    • @XavierMitjana
      @XavierMitjana  Місяць тому

      Cierto! Se me coló la influencia del catalán. Y en mi cabeza ya se veía bien.

  • @SyRaXxiiSs2624
    @SyRaXxiiSs2624 Місяць тому +17

    La IA que te ha escrito el título tiene que aprender que móvil va con v no con b

    • @kazuyalv32
      @kazuyalv32 Місяць тому

      Siempre me dio pena escribirlo pero mejor llamarlo celular

    • @yilmarmusk848
      @yilmarmusk848 Місяць тому

      ya ya señor maestro

    • @UrsulaCallistis
      @UrsulaCallistis Місяць тому +3

      Bueno, en italiano se escribe con b, si hay personas que usan palabras en inglés cuando hablan español, se podría decir que es estás usando una palabra en Italiano para que crean que lo escribiste bien XD

    • @jmen5534
      @jmen5534 Місяць тому +2

      La ia sabia que esto generaria mas interacción 😅

    • @suerte3436
      @suerte3436 Місяць тому

      Jajajaja jajajaja jajajaja jajajaja esa Ia está echa mierda mo b il

  • @kratoswarelmejor
    @kratoswarelmejor Місяць тому

    Para que sirve esta mierda si esta copilot y gpt ese que puedes usarlo desde el celular y hasta el gemini de google y todos te dibujan negros

    • @sergioT121
      @sergioT121 Місяць тому +2

      Pero no son open source

    • @video-500
      @video-500 Місяць тому

      La idea de reducir los modelos son ejecutarlos en el celular, no por internet. y así evitar la censura, u otras limitaciones que te ponen esos servicios online

    • @XavierMitjana
      @XavierMitjana  Місяць тому +1

      Exacto, o poder ajustarlos mediente fine-tuning de un modo mucho más económico a tareas concretas.

    • @robert001
      @robert001 Місяць тому

      En mí humilde opinión, creo que un modelo open source ES TUYO por decirlo de alguna manera, no dependes de un servidor de otro, está en tu dispositivo para que actúe como quieras, y teniendo conocimiento hasta entrenarlo cómo más te convenga. Agregaría que me parece increíble poder tener un cerebro artificial en mí ordenador es alucinante.