Modelo DIMINUTO mejora a CHATGPT 🤯 ¡Puede ejecutarse en un MÓVIL!
Вставка
- Опубліковано 23 кві 2024
- Microsoft presenta PHI 3 Mini. Un modelo diminuto que compite con ChatGPT
Recibe toda la INFO de mi ACADEMIA:
👉 bit.ly/curso_ia_
SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
👉 bit.ly/ia-newsletter_
---
ENLACES DEL VIDEO
👉 huggingface.co/chat
---
✅ SUCRÍBETE A MI CANAL: bit.ly/suscribirse_XM
📕 Descarga mi guía gratuita para Stable Diffusion:
👉 snip.ly/guia-IA
---
Instagram: / xavier_mitjana
Twitter: / xavier_mitjana
Contacto comercial: xavmit.yt@gmail.com
*Al realizar una compra a través de cualquiera de estos enlaces de afiliado, recibimos una comisión muy pequeña sin costo adicional para ti. Esto me ayuda a hacer el canal sostenible y seguir ofreciendo contenido de calidad.
#inteligenciaartificial - Наука та технологія
Que buenos andan las coorporaciones! Llama, Phi, Grok, etc.
SI me permites un consejo para tus videos, creo que sería muy interesante que hicieras un video sobre Ollama + Open Web UI. Sería muy interesante para que la gente que te ve sepa como usar estos modelos en su propio ordenador e incluso en el movil usando Open Web Ui como servidor. PHI 3 ya estaba disponible esta mañana en Ollama y la posibilidad de combinar modelos como por ejemplo Llava y Llama abre un gran abanico de posibilidades.
Hola, pues precisamente estaba trabajando en un video similar. Aunque no he apostado por en este caso, pero me lo apunto!
Ojala en un futuro se puedan crear APKs para Android que de puedan usar estos modelos de manera local más fácil, sé con herramientas como Termux se puede usar, pero hay que dar muchos pasos
Me parece muy interesante y esperanzador la miniaturización, abre la posibilidad a poder instalarlo en un servidor comun con docker a un nivel decente.
Exacto, abre muchas posibilidades de que nosotros tengamos el control de la herramienta y no solo eso, de que gracias al fine tuning podamos mejorar modelos pequeños para tareas específicas más fácilmente. En realidad que realmente la miniaturización y optimización de modelos sea factible, casi que es mejor noticia que aparezca un GPT-5 más potente.
Gracias Xavier...
Excelente modelo para moviles Android, siempre habia para laptops o PC.
Gracias
Gracias por el GPT, nítido.
¿Qué pasos se siguen para ejecutarlo en móvil?
habria que ver desafios logicos mas dificiles para ver si es capaz de los mas dificiles
Qué interesante lo del móvil... En 2023 ya consiguieron hacer fotos por IA en un móvil...
ahora mismo esperando una versión sin censura de PHI-3, es muy frustrante que no te quiera responder a preguntas un poco polémicas
Dessa vez fui mais rápido que o vídeo :) já rodei no ollama o phi3, roda rápido no meu PC véio!!
Seguramente lo que hicieron fue resumir y ordenar datos de manera muy eficiente usando gpt 4.5, y con esos datos perfectamente ordenados y filtrados es con los que han entrenado el modelo pequeño.
Es una posibilidad, de hecho, se especula que muchos modelos han sido entrenados de este modo.
Si es mejor que chatGPT ya podemos comenzar a comparar a los nuevos competidores con este! Y empezar a dejar al otro un poco más tranquilo!
Pobre chatGPT han salido tantos que lo superan pero todos siempre lo usan para compararse 😮😊
En realidad ya no es tanto que ChatGPT sea el mejor, sino que es la referencia, vamos, el top of mind. Decir que mejora a Llama 3 8b, era otro enfoque que tenía pensado por ser más reciente.
14:41. Preguntando a ChatGPT, con el mismo ejercicio de contar las palabras de su mensaje, observo que se aproxima pero no es exacto, me asegura que sí cuenta palabras, no tokens, por lo que le vuelvo a preguntar si tras elaborar su respuesta existe la posibilidad de que sea luego alterada. Me responde: "Sí, es posible que haya ajustes o cambios en la respuesta después de ser generada inicialmente. Esto puede ocurrir debido a procesos de revisión y optimización que buscan mejorar la calidad y precisión de la información proporcionada. En este caso, es importante tener en cuenta que los ajustes posteriores pueden alterar el número de palabras, tokens u otros aspectos de la respuesta original. ¿Quieres saber más sobre cómo funcionan estos procesos de revisión?"
No relacionado, pero ahora que parece que ChatGPT por fin está activando la memoria persistente (al menos usando VPN se puede usar desde España), ¿algún tutorialillo o análisis sobre cómo sacar buen partido de esta función, Xavier? No termino de ver la funcionalidad diferenciada-más allá de lo evidente-respecto a las Custom Instructions o los GPTs personalizados. La gente que veo hablando del tema está entusiasmada, ahora que por fin les está llegando, pero claro, pocos han experimentado para sacar truquillos, escenarios en que sirva mejor que las CI…
Lo interesante podría ser descargarlo y correrlo en nuestro ordenador o móvil.
Pronto explico como hacerlo
Para que todos queden conformes: Movile *
ollama run phi3 e BOOMMMM
hola buenas noches, aun estos modelos conservan la arquitectura transformers?
Sí, creo que sí. Voy a investigar cuales trabajan con arquitectura Mamba, pero en este caso no he visto en ningún sitio mención a una arquitectura diferente.
Es posible que el error en el conteo de palabars se deba a la cantidad de tokens utilizados en cada palabra para el castellano.
Tal vez podrias cambiar la pregunta por cuantas silabas, vocales o consonantes va a responder.
Muchas gracias por el video.
Hola, en realidad es un ejercicio en el que suelen fallar la mayoría, tanto en español como en inglés. En este caso no creo que tenga que ver con la relación tokens palabras, sino en el hecho de como funciona esta tecnología, que lo hace prediciendo los siguientes bloques, por lo que en el momento en que empieza a escribir no sabe exactamente cuantos tokens va a consumir.
@@XavierMitjana Tienes razon, lo he intentado con varios modelos y fallan. Hasta he intentado darles un metodo de solucion y aun fallan.
Lo testeo en local y en red, y alucina horrible el modelo, pienso que parte de la falla de que alucina es por el entrenamiento con datos sintéticos, no importa como ajustes la temperatura para que sea más preciso el modelo alucina demasiado, sobre todo el modelo mas pequeño el phi 3 mini en el test de escribir 10 oraciones que terminen con la palabra 'manzana una vez cero aciertos de 10 ,segundo intento 1aciertos de 10
Hablando de un tema aparte me pareció curioso, interesante y raro es que una vez me puse a trabajar con gémini y gpt 3.5 y me di cuenta de que hay varias cosas donde responden exactamente igual con las mismas palabras, frases y párrafos cosa que en cierto modo considero q no debería de pasar si asumimos q se supone q son IA diferentes de compañías distintas entonces me parece raro eso................ no se si alguien más le ha pasado….
Se dice que hay modelos que están entrenados sobre outputs de GPT-4. Esta podría ser la razón.
@@XavierMitjana Mmm entiendo así si me la gana y entiendo entonces el por qué.....
Lo de móvil con B me ha provocado un desprendimiento de retina 😆
Lapsus del catalán... ya está corregido
Y en qué mejora a ChatGPT?
Mobile* 👌
Siempre cometéis el mismo error con los "kilos". Para la IA, un kilo son mil unidades, pero no le indicas de qué, por lo que ella infiere que son de "algo" abstracto. Para obtener una respuesta basada en realidad, debéis indicarle que estáis comparando kilogramos y no kilos. Te aseguro que encontrarás muchos menos errores en ese tipo de preguntas.
Hola Miguel, en realidad por la manera como aprenden las IAs no es así. Aprenden por contexto y relación de palabras dentro de grandes corpus de texto. Y kilo, sin el gramo, es algo ampliamente utilizado como sinónimo de kilogramo. De hecho, si le preguntas a ambos modelos que es un kilo, responden que es un kilogramo.
ya tiene memoria chat gpt !!!!
O es MOBIL o MÓVIL.
MoViL 😅
Móvil 😊
Microsoft acaba de lanzar un modelo de IA tan pequeño que cabe en un móvil y compite con GPT-3.5. ¿Estamos ante el fin de los grandes modelos en la nube? 🤔
Se puede descargar?
Creo que ya se puede, lo presentaron ayer, pero seguramente ya está disponible en hugging face
El tema de los calcetines no esta muy trillado ya?... capaz que la IA lo extraiga de Internet directamente
Es posible, pero también te diré que en una de las pruebas Phi3 ha sido el que me ha dado la respuesta mejor argumentada, a nivel de detalle y matiz. También es verdad que no lo resuelve el 100% de las veces, por lo que no creo que esté memorizado.
OH NOOOOOOOOOO NEYMAR SE A LESIONADO DE NUEVO AL ESCUCHAR ESA RESPUESTA ... raro no seria ya esta en el piso revolcandose
Hay que aclarar que castellano es el español hablado en Castilla, eso sí hay que corregirlo, pero es sólo una deformación metalinguística proveniente de la anglosfera, a la que que le ha interesado deformar el español como idioma, por percibir las tremendas desventajas con respecto a sus tecnologías comunicacionales de factura reciente. Por lo demás todo bien. A este respecto puede aventurarse que al ser el español una tecnología superior en múltiples aspectos, el futuro de la inteligencia artificial puede estarse viendo determinado, comprometido y sobrepotenciado a través del reconocimiento de esta supervesátil lengua. Tal vez el mundo tenga que aprender a hablar, pensar y programar en español.
Hoy probé "Llama 3" y no es capaz de componer una sola estrofa en décima espinela correctamente. La décima espinela es un estilo lírico basado en 10 versos octosílabos, pero resulta que (hasta el momento) ninguna I.A. sabe medir algo tan simple como un verso de 8 sílabas, y mete versos de 10, 12 ¡y hasta algunos de más de 20 sílabas! Por el momento la I.A. no puede reemplazar a ningún buen poeta. Ahora bien, para escribir cualquier burrada y poner ahí que "esto es una poesía", anda bien. Felizmente, por ahora el poeta no pudo ser reemplazado. Ni siquiera nos ayuda en nada al momento de componer versos métricos, al contrario, confunde a las personas que no saben nada de poesía y creen que lo que les devuelve la I.A. es "un poema".
los modelos de lenguaje no están pensados para sustituir a nadie, es solo una máquina inteligente que ayuda con algunas tareas como buscar información y tener conversaciones de todo tipo con el usuario. Tiene el razonamiento suficiente para hacer una cierta cantidad de tareas limitadas
@@ismaelmoraleda228 Entiendo, pero ¿algo tan básico como contar bien las sílabas, no puede hacerlo? Creo que todavía falta mucho para siquiera temer de que pueda reemplazar al ser humano en tareas básicas.
No puede porque la AI no cuenta silabas onpalabras, ella funciona por tokken lo cual no se cuenta como palabras en si. Es por eso si li das la instrucción de escribir un texto de 300 palabras justas jamas te dara 300 palabras justas.
La Ai se usa como herramienta de ayuda en diferentes disciplinas. @@RubenSada
Móvil es con V de vaca javi 😮
Cierto! Se me coló la influencia del catalán. Y en mi cabeza ya se veía bien.
La IA que te ha escrito el título tiene que aprender que móvil va con v no con b
Siempre me dio pena escribirlo pero mejor llamarlo celular
ya ya señor maestro
Bueno, en italiano se escribe con b, si hay personas que usan palabras en inglés cuando hablan español, se podría decir que es estás usando una palabra en Italiano para que crean que lo escribiste bien XD
La ia sabia que esto generaria mas interacción 😅
Jajajaja jajajaja jajajaja jajajaja esa Ia está echa mierda mo b il
Para que sirve esta mierda si esta copilot y gpt ese que puedes usarlo desde el celular y hasta el gemini de google y todos te dibujan negros
Pero no son open source
La idea de reducir los modelos son ejecutarlos en el celular, no por internet. y así evitar la censura, u otras limitaciones que te ponen esos servicios online
Exacto, o poder ajustarlos mediente fine-tuning de un modo mucho más económico a tareas concretas.
En mí humilde opinión, creo que un modelo open source ES TUYO por decirlo de alguna manera, no dependes de un servidor de otro, está en tu dispositivo para que actúe como quieras, y teniendo conocimiento hasta entrenarlo cómo más te convenga. Agregaría que me parece increíble poder tener un cerebro artificial en mí ordenador es alucinante.