- 529
- 1 437 880
LLM Master
Приєднався 24 кві 2017
LLM Master es un Canal de UA-cam donde hablamos del maravilloso mundo de los Modelos Grandes del Lenguage.
Curso de LLM.
Suscríbete a nuestro canal y disfruta del mejor contenido.
Curso de LLM.
Suscríbete a nuestro canal y disfruta del mejor contenido.
Adobe Firefly: ¡El Nuevo Generador de Texto a Video! Adiós SORA
Aprende conmigo AI: www.skool.com/llm-master-3225
¿Quieres crear imágenes sorprendentes que nunca antes habías visto? En este video te mostraré cómo Adobe Firefly transforma texto en arte visual de una forma increíble. Veremos cómo esta herramienta de IA generativa convierte descripciones en imágenes realistas y detalladas. Desde un dragón bebé hecho de lava hasta paisajes mágicos en un cenote iluminado por el sol en México. También crearemos una escena cinematográfica de un robot adorable sosteniendo un corazón luminoso. ¡Acompáñame para descubrir cómo Firefly lleva la creación visual al siguiente nivel con solo unas palabras!
¿Quieres crear imágenes sorprendentes que nunca antes habías visto? En este video te mostraré cómo Adobe Firefly transforma texto en arte visual de una forma increíble. Veremos cómo esta herramienta de IA generativa convierte descripciones en imágenes realistas y detalladas. Desde un dragón bebé hecho de lava hasta paisajes mágicos en un cenote iluminado por el sol en México. También crearemos una escena cinematográfica de un robot adorable sosteniendo un corazón luminoso. ¡Acompáñame para descubrir cómo Firefly lleva la creación visual al siguiente nivel con solo unas palabras!
Переглядів: 677
Відео
¿Pueden los LLM razonar? El estudio de Apple revela la verdad - GSM Symbolic
Переглядів 8576 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 Apple ha puesto a prueba a los modelos de lenguaje más avanzados (LLM) en un nuevo desafío matemático. ¿Los resultados? Sorprendentes y reveladores. En este video, te explicamos las conclusiones clave del estudio GSM-Symbolic y por qué los LLM aún tienen un largo camino por recorrer en el razonamiento lógico. Link de este video: arxiv.org/pdf/24...
Cómo OpenAI o1 preview revoluciona la programación con Cursor
Переглядів 2,5 тис.8 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¿Quieres saber cómo funciona la magia detrás de Cursor AI? En este video te llevamos de la mano para explorar cómo el modelo de lenguaje OpenAI o1 preview genera código de manera inteligente. ¡Verás ejemplos de cómo el modelo razona y toma decisiones para crear soluciones personalizadas! Si eres un amante de la tecnología, este video es para ti....
Ensayo Dario Amodei CEO de Anthropic - IA para el Bien: Una Visión Optimista del Futuro
Переглядів 1,6 тис.11 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¿Crees que la Inteligencia Artificial es solo una amenaza? ¡Piénsalo de nuevo! En este video, exploramos las ideas de Dario Amodei, CEO de Anthropic, sobre cómo la IA podría revolucionar positivamente nuestra sociedad. Amodei nos presenta un futuro donde la IA: Cura enfermedades: Desde el cáncer hasta el Alzheimer, la IA podría erradicar muchas ...
Tesla Optimus. ¿Robots entre nosotros? Tesla te muestra cómo será el futuro.
Переглядів 24 тис.13 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¡El futuro llegó! Tesla acaba de presentar su robot humanoide Optimus y las imágenes son impresionantes. Optimus caminó, bailó e incluso atendió a los asistentes. Además, vimos coches autónomos circulando libremente. ¡Suscríbete a nuestro canal para no perderte ningún detalle de este evento histórico! Link de este video: ua-cam.com/video/IG4wSOz...
Microsoft Copilot Voice - ¿Mejor que OpenAI Voice?
Переглядів 4,6 тис.15 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 Descubre el futuro de la comunicación impulsada por IA con Microsoft Copilot Voice. Experimenta una forma más intuitiva y natural de interactuar con tu compañero de IA. Copilot Voice ofrece cuatro opciones de voz distintas, lo que te permite elegir la que mejor se adapte a tus preferencias. Características clave: Copilot Voice: Haz lluvia de ide...
OpenAI: Recibe las primeras Nvidia Blackwell B200 y una alianza con Hearst
Переглядів 1,6 тис.18 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¡OpenAI acaba de dar un gran paso hacia el futuro de la IA! Han recibido las primeras supercomputadoras Nvidia DGX B200, ¡15 veces más rápidas que las H100! Esta potencia de cálculo les permitirá desarrollar modelos de IA aún más sofisticados y rápidos. Pero eso no es todo. OpenAI se ha unido a Hearst en una nueva alianza que integrará el conten...
Fourier GR-2: El nuevo estándar en robótica humanoide
Переглядів 1,8 тис.20 годин тому
Aprende conmigo AI: www.skool.com/llm-master-3225 Descubre el FourierGR-2, el robot humanoide más avanzado hasta la fecha. Con un diseño hardware de última generación, el GR-2 ofrece una mayor agilidad, potencia y flexibilidad. Diseño hardware innovador: Cableado integrado, nueva configuración de articulaciones y un diseño más compacto para un rendimiento óptimo. Especificaciones de primera: Co...
Gemini 1.5 Flash-8B: Más rápido, más barato y mejor
Переглядів 1,1 тис.23 години тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¡El modelo de lenguaje más ligero y eficiente de Google acaba de mejorar! Gemini 1.5 Flash-8B ofrece un 50% de ahorro en costos, el doble de velocidad y una latencia reducida. Perfecto para tareas de alto volumen y contextos largos. ¡Descubre cómo empezar a usarlo hoy mismo! Link de este video: developers.googleblog.com/en/gemini-15-flash-8b-is-...
¡Pika 1.5 al poder! ⚡ Efectos LOCOS y movimientos REALES
Переглядів 853День тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¡La versión 1.5 de Pika acaba de revolucionar la creación de videos! Descubre cómo crear efectos alucinantes, desde explosiones hasta inflaciones, y movimientos súper realistas. ¡Con Pika 1.5, tus videos serán épicos! #Pika1.5 Link de este video: pika.art/
Nvidia NVLM 1.0. El LLM multimodal de NVIDIA que desafía a los líderes.
Переглядів 3 тис.День тому
Aprende conmigo AI: www.skool.com/llm-master-3225 Descubre NVLM 1.0, el último modelo de lenguaje grande multimodal de NVIDIA. ¡Supera a GPT-4o y Llama 3-V en múltiples tareas! Conoce cómo este modelo de código abierto está redefiniendo los límites de la IA y cómo puedes usarlo. #NVIDIA #NVLM Link de este video: research.nvidia.com/labs/adlr/NVLM-1/
Meta Movie Gen - El mejor modelo de video AI
Переглядів 2,7 тис.День тому
Aprende conmigo AI: www.skool.com/llm-master-3225 ¿Imaginas crear videos increíbles solo con palabras? Meta acaba de revolucionar la edición de video con Movie Gen. Transforma tus fotos en videos personalizados, edita clips existentes y crea historias únicas con IA. ¡Descubre cómo en este video! Link de este video: ai.meta.com/research/movie-gen/
Nuevo ChatGPT Canvas: ¡Una Nueva Forma de Colaborar en Tus Proyectos de Escritura y Codificación!
Переглядів 5 тис.День тому
Aprende a programar con AI: www.skool.com/codai-5648/about ¿Qué es ChatGPT Canvas? Es una interfaz innovadora que te permite trabajar codo a codo con ChatGPT en un espacio dedicado. Ideal para proyectos que requieren múltiples revisiones y ediciones. Características Principales: Espacio de Trabajo Dedicado: Canvas se abre en una ventana independiente para que te concentres en tu proyecto. Colab...
OpenAI presenta Model Distillation - Potencia tus modelos con Destilación: Más rápido, más barato.
Переглядів 3,5 тис.День тому
Aprende conmigo AI: www.skool.com/llm-master-3225 OpenAI presenta una nueva suite de Destilación de Modelos que permite a los desarrolladores crear modelos más pequeños y eficientes a partir de modelos más grandes. Con Completados Almacenados, Evaluaciones y Ajuste Fino integrados, podrás gestionar todo el proceso de destilación directamente en la plataforma de OpenAI. Aprende cómo aprovechar a...
OpenAI DevDay presenta Real Time API: Llamadas en tu nombre
Переглядів 3,4 тис.День тому
Aprende conmigo AI: www.skool.com/llm-master-3225 En este video, OpenAI presenta su nueva API de tiempo real, que te permite hacer llamadas en tu nombre. Esta API es perfecta para empresas que quieren automatizar sus llamadas de atención al cliente o para personas que quieren hacer llamadas sin tener que estar disponibles en persona. Prompt Caching Tutorial: ua-cam.com/video/EaeEqCi_xt0/v-deo.html
NotebookLM: ¡Ahora con YouTube y Audio! Expande tu aprendizaje.
Переглядів 7 тис.14 днів тому
NotebookLM: ¡Ahora con UA-cam y Audio! Expande tu aprendizaje.
Meta Presenta su Nueva Voz AI: Una Revolución en la Interacción Virtual. Judi Dench en tu móvil.
Переглядів 3,4 тис.14 днів тому
Meta Presenta su Nueva Voz AI: Una Revolución en la Interacción Virtual. Judi Dench en tu móvil.
OpenAI: De sin fines de lucro a multimillonaria. Sam Altman se hace de oro.
Переглядів 2,3 тис.14 днів тому
OpenAI: De sin fines de lucro a multimillonaria. Sam Altman se hace de oro.
Meta presenta Orion con Llama 3.2 Vision, las gafas AR más avanzadas del mundo
Переглядів 2,1 тис.14 днів тому
Meta presenta Orion con Llama 3.2 Vision, las gafas AR más avanzadas del mundo
¡Cerebras Inferencia Revoluciona los LLM! Genera Tokens 20x Más Rápido que la Nube.
Переглядів 1,4 тис.14 днів тому
¡Cerebras Inferencia Revoluciona los LLM! Genera Tokens 20x Más Rápido que la Nube.
Llama 3.2 en Español. La IA que ve y entiende, ahora en tus manos
Переглядів 30 тис.14 днів тому
Llama 3.2 en Español. La IA que ve y entiende, ahora en tus manos
Sam Altman y La Edad de la Inteligencia. ASI en 1000 días.
Переглядів 3 тис.14 днів тому
Sam Altman y La Edad de la Inteligencia. ASI en 1000 días.
HailuoAi Miramax - Crea videos GRATIS con un simple prompt
Переглядів 1,4 тис.21 день тому
HailuoAi Miramax - Crea videos GRATIS con un simple prompt
PUDU D7: El robot semi-humanoide que revolucionará la industria
Переглядів 81921 день тому
PUDU D7: El robot semi-humanoide que revolucionará la industria
Los creadores de OpenAI O1 revelan los secretos detrás del modelo más inteligente
Переглядів 1,1 тис.21 день тому
Los creadores de OpenAI O1 revelan los secretos detrás del modelo más inteligente
Google Deepmind Veo Model pronto en Youtube. Convierte tus ideas en realidad con IA.
Переглядів 1,4 тис.21 день тому
Google Deepmind Veo Model pronto en UA-cam. Convierte tus ideas en realidad con IA.
Sam Altman revela Orion, el nuevo modelo de OpenAI con capacidades avanzadas.
Переглядів 5 тис.21 день тому
Sam Altman revela Orion, el nuevo modelo de OpenAI con capacidades avanzadas.
Pixtral 12B: Un Avance en Modelos de Lenguaje Multimodales
Переглядів 1,9 тис.21 день тому
Pixtral 12B: Un Avance en Modelos de Lenguaje Multimodales
Chatgpt "Copilot" en Excel. ¡Tu asistente personal de datos al alcance de un clic!
Переглядів 1,7 тис.28 днів тому
Chatgpt "Copilot" en Excel. ¡Tu asistente personal de datos al alcance de un clic!
GameGen-O, la revolución en la generación de videojuegos AI
Переглядів 1,8 тис.28 днів тому
GameGen-O, la revolución en la generación de videojuegos AI
Adobe firefly está como para no buscar más modelos
Vale, pero aun no esta disponible, sigue siendo de momento añgo igual que Sora, puro humo.
Pienso que en el concepto planteado, los humanos tampoco razonamos, nada está por fuera de nuestro entrenamiento
Oye, el contenido bien pero estais todos los youtubers con el clickbait de "Adios Sora" ya desde hace mucho sin que haya salido Sora y conociendo a OpenAI cuando salga Sora que sino sale por algo será, imagino que lo hará callando bocas.
Ahora empieza en la parte gráfica a tener sufucientes opciones para editar gráficos con IA; me ha gustado. Iré probándolo.
Todo gratis entiendo jajajajjaja. Menos mal que el mundo del cine esta acabadosisimo sino esto seria du fin
exCELENT
Dude! Ya vi los videos y quede 😐😐 creo que era fake o de esos típicos videos chinos de TikTok, perp me equivoque osea se me me hizo tan difícil de asimilar pero a la ves impresionante teslo acaba de dar un gran paso hacia el futuro pero espero que esto no tenga repercusiones
Es tan impresionante que muchos han entrado en negacion. He leido comentarios desde gente disfrazada, estan teledirigidos, en realidad es un humano hablando...
Tengo 3 a 4 años trabajando con LLM, la primera vez hize un deployment de GPT2 y lo testie en 2019, luego GPT3, y todas la versiones posteriores, y varios otros modelos Open Source. Mi utimo test fue con o1 vesion que habla, puedo concluir que las fallas son las mismas que con las primeras versiones, lidear con la incertidumbre se les hace realmente dificil si cambias el contexto y tratas de llevar el hilo de la conversacion. Puedo estar seguro de que los LLM no piensan, son Loros entrenados por fueza bruta, en contextos y escenarios establecidos, por eso no pueden manejar la incertidumbre, cosas que por sentido comun una persona entenderia rapidamente un LLM no puede hacerlo, esto es altamente frustrante al tratar de llevar una conversacion fluida porque te responde cosas fuera del contexto o es incoherente, no tenemos Inteligencia alli son generadores de texto cargados en base a combinaciones de la palabras en contextos restringidos, por ejemplo para que te ayude a buscar o comprender algo, simpre lineal, pero no piensan no entienden.
Muy interesante, gracias por el video! Tienes un eco un poco molesto en tu micro por cierto :)
Que importante si razona realmente o no, con tal de cumplir con lo que se le pide es suficiente. Creo que más bien es mejor por qué podemos aumentar los parámetros y los recursos sin preocuparnos que pueda llegar a tener algo como la conciencia, haciendo útil en distintos campos, hasta en la robótica. También cuál es el objetivo de esto? No es mejorar la productividad, realizar descubrimientos y desarrollos tecnológicos. científicos y médicos, es decir tener nuestro sirviente o esclavo, puede ser muy duro pero es verdad la palabra robot significa esclavo, y si no tiene conciencia y raciocinio como nosotros no es mejor.
Interesante el artículo. Acabo de escuchar que Fei-Fei Li y Justin Johnson han reunido 230 millones para centrarse en la IA espacial. Para conseguir esa IA que razone. Según Fei-Fei estamos en la era cámbrica de la IA. Pero no veo ninguna propuesta de modelo para entender de qué va la IA espacial, exactamente (según ellos es lo que hace falta para el razonamiento). Igualmente, viendo cómo la gente reune millones para el tema IA, no tengo tan claro si iniciamos un Cámbrico de IA, o un Cámbrico del negocio de la IA.
Bueno, mezclar patrones es en cierta forma una manera de "razonar" a la que antes de estos no estabamos acostumbrados, por ende, si razonan parcialmente, matemáticas aplicadas al lenguaje, es una forma de obtener resultados. Lo que pasa es que es muy limitado. Lo llevo diciendo desde que esto empezó, ni aunque mejoren por 1000 tendrán auténtica creatividad. Desde ChatGpt 3 ya han mejorado por 10 en la última versión más potente de ChatGPT, pero aún programando es penoso. Yo lo considero un escritor automático inteligente, como una super macro, pero poco más. Señores, que con esta tecnología tenemos lo que siempre salía en las películas de ciencia ficción de las primeras IA. Que eran como lo son ahora. Luego llegaba la verdadera IA a los años, pero ahora mismo eso no existe ni va a existir por más super GPU que saque nvidia para uso industrial. Ni vamos a desaparecer los programadores ni nada de eso, eso sí, quien no use IA queda obsoleto por productividad. Otra cosa de aquí a 25 años, pero eso ya es otro cantar. El futuro a largo plazo nadie lo sabe, ni si estaremos aquí. Buen día!
Muchos trabajos se acabarán el policía el bombero etc, no dudo un ejercito de algún país robot , pero si cae en manos equivocadas imagina el sin fin de cosas ilícitas que puede hacer si ya los drones tiran granadas 🤷
Robot sicario
Los dones no tiran granadas , anclas la granada con un mecanismo , lo llevas al objetivo precionas un botón y lo sueltas , es como decir que las armas matan, no, las armas no matan, somos nosotros los que matamos cuando apretamos el gatillo
Los robots optimus ya trabajan en la fábrica de tesla... Podrían mandar en 4 años a varios de ellos a marte y enviar una minifabrica en la star ship; de esta manera ya sea a distancia o con una IA podrías monitorear qué ellos mismos se reparen y fabriquen más. Incluso con un operador de manera remota usando los satélites de star link no tendrías tanto retraso en la señal.
Yo le enseñaria a jugar dark souls y me dedicaria a simplemente ver como una maquina gana a otra
Cada vez que intento usar el comando de voz en copilot móvil me aparece: "Lo siento, hablaremos más tarde. Estoy trabajando para poder hablar contigo, vuelve a consultarme más tarde.", ¿Alguien tiene idea de cuando lo van a solucionar?
Nunca estaremos preparados pero al cambiar el sistema productivo se deberá cambiar el sistema económico como siempre ha ocurrido a lo largo de la historia
Si, Pero ya estarás desvivido cuando eso pase , no te va a tocar.
Mientras no se nos revelen como en la película "resistencia" todo está bien .
No te das cuenta que lo estan controlando remotamente?? no tienen IA aun
Me dio la impresión como si lo estuvieran controlando desde una central de monitoreo, pero el tiempo nos dirá.
Que no te de la impresión , así fue, no son totalmente autónomos. F4ke
De qué vamos a currar las personas??? De qué vamos a vivir??? El principio del fin
Tu eres dueño del robot, lo alquilas a una fabrica o algun lugar y tu recibes las ganancias.
El problema es que se cargarán a la democracia y pasaremos a tener una técnocracia (una especie de comunismo dirigido por pocos tecnologos que estarán al mando de las IA)
I think that there is a guy wearing a suit with motion sensors on a trailer making the device talk and move.
Estudiamos años para tener el conocimiento y la experiencia para poder desempeñar un papel en la sociedad. Cuando eso cambie y los empleos sean sustituidos por las máquinas especializarse en algo perderá todo el sentido y no necesitaremos trabajar porque habrán otros. Pero siempre necesitaremos comer por lo que el sistema deberá cambiar, imagino serán los gobiernos quienes repartirán los recursos en un modelo comunista pero con la diferencia en que los recursos serán bastos pues serán producidos en masa en todo el mundo a muy bajo costo.
Como siempre con Anthropic, será un gusto ver el nuevo modelo.
Vamos una agenda 2030 impulsada por la inteligencia artificial. 🧐
Si hay teleoperadores aún es más impresionante pues quien diría que solo en 3 años el robot sería casi totalmente funcional esto quiere decir que de aquí a tres años o menos veremos verdaderas proesas en la robótica eh inteligencia artificial pues está presentación les a puesto un coete en el trasero a más de una empresa americana sin olvidar china que ara asta lo que no esta escrito para llegar a ese nivel 😅
3 años? No mi chulis , tardaron como 25 años para lograr que caminara y se balanceara bien, no creas que todo lo desarrollo T3sla, también compran de otros.
Parece que tienen problemas, no se puede conectar el chat de voz.
yo hace rato digo que nuestra era ciberpunk llega ahora en el 2027, donde nos veremos rodeados casi con normalidad robots impulsados con IAF auto gestionables, el razonamiento ya lo acaba de sacar OpenIA hace poco (GPT o1)... cada vez avanza más rápido todo esto
La conversación no parece IA. Creo que cada robot tiene un operador hablando a distancia. La gente habla con un humano y su voz está sintetizada. Me parece más que esto es un teatro para inversores que una demo de productos. Es una puesta en escena al estilo Elon.
Si no, y Pedro Sanchez es un buen presidente ajajaja. (ironia)
Hay que definir el concepto de la voz de la iA, la mayoría de Internet son un recopilado de terceros, tesla tiene millones para contratar a alguien y hacer sus propias líneas y generarla , es impresionante que el robot tenga movimiento fluido comparado a lo que teníamos hace unos cuantos años , la conversación no es imposible
me muero que le gusta daft punk (L)
Es el futuro
y la version militar para cuando?
mira detras tuyo...
Ya no se ocupa , teniendo bombas atomicas
Claro que es verdad, no le ven las conexiones en las muñecas al robot barrendero! 😂 2026 va a ser una locura, el año boom de la Robótica y yo que pensé que sería 2027.
Muy raro,no ven el concepto la mayoría
Muy buenos tus videos, pero por favor, sube el volumen 🙏🏼
No es autonomo , esta TeleoperAdo , vean
Puede ser, pero aun así es un logro
Tu cerebro es teleoperado
@@ivansantanaleiva2760 JAJAJAJAJAJJAA
Es correcto un experto en tecnología asistió y comento eso. Solo están comprando tiempo y mostrando algo que sobre la marcha puedan ir arreglando y reparando y acomodando así como sus autos aquí solo están vendiendo un concepto para que los interesados suelten la plata.
@@repa77777 fuente: de los deseos 🤫
Si todo es real, es una pasada difícil de asimilar.
2025 va a ser increible para los bots ;)
Muchos especulan que es teleoperado xd
podría ser, lo que es seguro es que a partir de ahora los desarrolladores de bots, van a tener que hacer demos más espectaculares. Como siempre, gracias por comentar ;)
Es seguro, en la primera presentación pusieron a uno disfrazado de robot...
De acuerdo, por ejemplo cuando le preguntaron lo de los grados de libertad, contesto muy folclorico, como si de una respuesta de un humano teleoperando en primera persona, aún así el funcionamiento y precisión es abrumadora. Y seguramente tomando miles de datos
@@llmmaster_ Quien no conoce a Boston Dynamics a cualquier animatronic le reza.
@@gfer66 cierto, animatronic
No se porque me gustan mas estas voces que las de OpenAI espero que no sean un TTS
Lol. Espero lo estés diciendo de forma sarcástica. La voz de ChatGPT es superior y más avanzada que todos los demás 🤡😂😂😂
capaz q esta super sensurado como siempre
eso no funciona , como que el aceite italiano !!!
Hola, sólo funciona en ingles?
Que bien que ya van a entrar en escena las B200 reemplazando a las H100, y con las Vera Rubin en 2026 ahora solo estamos a 2 generaciones más del Apocalípsis de 2028😂
pero la voz ya esta liberada? o falta que la implementen?
Copilot Voice está disponible inicialmente en inglés en Australia, Canadá, Nueva Zelanda, Reino Unido y Estados Unidos. Próximamente, Copilot Voice se ampliará a más regiones e idiomas.
Yo estoy más entusiasmado con lo que está sacando meta, y eso que soy un fanboy de openai
A que te refieres Miguel? Que esta sacando Meta?
@@amacegamer Gen de meta, para hacer vídeos, modelos abiertos y gratuitos y desde hace mucho están investigando el detectar objetos con altísima precisión, tiene mucho potencial todo
@@amacegamer lanzaron Llama 3.2, su nuevo modelo de video generativo llamado Meta Movie Gen entre otros productos. Meta en 2025 vendrá pisando fuerte
No funciona la voz en copiloto, hace semanas que no se puede hablar
Este nuevo no es un TTS(Text to Sound) es el Modelo Omnimodal.
Solo está disponible en inglés de momento
El nuevo Copilot solo está disponible en algunos países del 1er mundo, Australia, Nueva Zelanda, el mundo de habla hispana tendrá que esperar a fin de año si acaso 😂
La guerra os mola para sacar un vídeo diario. Pero no es de calidad