Razona esto con gpt o1 😅 Con eso basta para unificar todo las 4 fuerzas en un único marco simple cuerdas las superposicones de los qubits bucles y la espuma cuántica la red de los qubits de mis constantes cuantizadas da un resumen de mi idea su potencial y viabilidad. .... doble rendija explicada con mi idea : Es x q el fotón viaja comprimiendo y expandiendo al infinito y interaciona distinto a cuando lo medimos y forzamos a q sea C x nuestra escala espacio temporal de referencia 🙃 se necesita un marco 3D q lo explique como está fumada : Si llamamos a los qubits 1/-1 y creamos un qutrit (1.0.-1) usamos el 0 como clasico y de referencia siempre sale (1=0=-1)=(-1=0=1) con eso recreas relatividad y campos en 3D usando las constantes y conceptos matemáticos x ejemplo C se vería como C1=C=C-1 y E=MC² se ve como (MC*=E*=MC²=E=-MC*=-E*)=(-MC*=-E*=MC²=E=MC*=E*) podemos verlo asi pasado comprimido=presente normal y referencia=futuro expandido materia/antimateria=interacion=materia/antimateria
Wao, por lo que dices o1 es más novedoso de lo que pensaba. Si yo fuera a crear algo similar ahora mismo, hubiese hecho algo comparable a un MoE donde los expertos son uno en razonar y luego otro en dar la respuesta dado el razonamiento y el prompt. Ambos con fine-tuning/hidden-prompts específicos. Y el tiempo que se toma en razonar varía porque usan menos compute o modelos con más/menos parámetros. (Cuando viene a ver se atreven a usar hasta una variante de GPT-2.) De esta manera los razonamientos errados serían similares a los pensamientos intrusivos y el segundo paso con el segundo experto sería algo como lo que las personas decidimos decir. (Porque no decimos todo lo que pensamos.) En realidad lo tenía en mi cabeza como un LLM App. Antes estábamos en el boom de las DApps que corren en el Ethereum VM, y ahora estamos en el boom de las aplicaciones que corren varias LLMs con prompts como código.
Creo que es mejor ocultar esta información. Alguno podría dudar de Dios o algo peor. Feliz Domingo y que tengáis un bonito octubre. No abuséis del Pacharán!!!
Que opinas de la ley Californiana que regula los modelos IA? De que por obligación todo lo generado por IA debe tener una marca irreplicable que indique que es generado de IA
Hasta hace unos meses, era posible mantenerse al día y entender que estaba pasando. Pero desde hace un par de semanas me siento superado por tanta AI, tanto avance, y esta carrera desenfrenada por tantos modelos. Agradecer a Dot CSV porque es como un faro en esta tormenta, rescatando lo de veras importante. Necesitamos alguien que nos señale hacia donde mirar, un guía, y para mi, dentro de los muy buenos divulgadores disponibles en español, dot CSV es el que se ha ganado mi mayor aprecio. No se si él entiende este rol que se ha ido ganando, y la responsabilidad que eso conlleva, supongo que si.
Exacto, que no te quiere vender la moto y que tiene fundamentos de IA de la anterior generación, yo miraba sus videos donde empezaba a hablar del descenso del gradiente.
@@TheMAIKOLPEREIRALo único que vende son sus cursos. Lo demás que dice es divulgación, no dice nada de su cosecha, y siempre da las fuentes de lo que informa.
Me encanta este canal por cómo nos explicas lo que ocurre entre bastidores. Otros explican solamente la multitud de posibilidades que ofrece la IA, tu además entras al detalle de "como lo hace". Espectacular!! 👏🏼 👏🏼 👏🏼
Realmente increible tu vision de lo que seria la IA cuando pràcticamente no se hablaba del tema. Considero que tienes un gran mérito por ello y te considero un referente para poder conocer qué hay realmente por detras de la IA. Gracias por tus aportes y compartir tus conocimientos 👏👍
Cada día me gusta más este comunicador, y hay una forma bastante fácil de evaluarlos: contar cuantas veces usan la palabra “básicamente”, por ejemplo en este vídeo Carlos no la usa ni una sola vez (o al menos yo Bo me he dado cuenta), sin embargo hay otros que te da la sensación de que es la única que usan…
Es agradable ver que aquí si te dicen las fuentes, ya es bastante con saber el nombre. No como otros que dicen: "de un estudio de Stanford veamos está tablita". Excelente muchas felicidades.
Hola! Yo estoy haciendo un trabajo sobre el pensamiento crítico y computacional de los programadores con la IA. He visto tus vídeos sobre como es que programa la IA y me gustaría más videos así. Nueva seguidora ;)
A mí me pasó algo "extraño" con el 4o, le subí un documento y me respondió que necesitaría tiempo para analizarlo, ya que mi solicitud era muy explícita. Muchas horas después me respondió moderadamente bien. Eso me sorprendió y desde entonces le digo: Antes de darme la respuesta analiza bien lo que me vas a responder, para que sea coherente con mi petición. Y sí, ahora lo hace, no sé si estaba usando este nuevo modelo y no me di cuenta, pero me sorprendió, aunque a veces funcionara y a veces no.
El texto está bien organizado, presenta información clara y concisa sobre O1. La estructura de preguntas frecuentes es efectiva y fácil de seguir. ## Sugerencias para mejorar la gramática y el estilo: * **Título:** En lugar de "Nueva nota", un título más informativo sería "¿Preguntas frecuentes sobre O1?" o "¿Qué es O1 y cómo funciona?". * **Enfoque en la audiencia:** El texto asume un conocimiento previo de IA y modelos como GPT. Sería útil agregar una breve introducción para una audiencia más general, explicando qué es un modelo de lenguaje y por qué O1 es significativo. * **Ejemplo concreto:** Incluir un ejemplo de cómo O1 resuelve un problema con "cadenas de pensamiento" haría la explicación más tangible. * **Variedad lingüística:** Utilizar sinónimos para evitar repeticiones de palabras como "razonamiento", "modelo" o "complejo". Por ejemplo: * "...se centra en **optimizar** la capacidad de razonamiento..." * "...A diferencia de **versiones previas** como GPT..." * "...aborda problemas que requieren mayor **profundidad analítica**..." * **"Verify step by step":** En lugar de usar la frase en inglés, traducirla como "verificación paso a paso" mantiene la coherencia del texto. * **Unificar tiempos verbales:** En la sección "Cómo se entrena O1..." se mezclan presente y futuro. Se recomienda unificar en presente: "El entrenamiento de O1 **involucra**... Se **utilizan**... O1 **recibe**...". * **Repetición en "¿Se inspira O1 en AlphaGo?":** En lugar de repetir la pregunta en la respuesta, se puede decir directamente: "Sí, el desarrollo de O1 se inspira...". * **Gerundio al inicio de la oración final:** Cambiar "Si bien aún hay desafíos por superar, su desarrollo abre..." por "Si bien aún hay desafíos por superar, el desarrollo de O1 abre..." ## Sugerencias para mejorar el contenido: * **Profundizar en "evaluador de procesos":** ¿Cómo determina el "evaluador de procesos" la lógica y coherencia? Dar más detalles sobre este componente crucial fortalecería la explicación. * **Ejemplos de conjuntos de datos:** Mencionar ejemplos concretos de los conjuntos de datos utilizados para el entrenamiento daría una idea más clara del proceso. * **Comparación con humanos:** Si bien se menciona que O1 aún no supera a los humanos, sería interesante mencionar en qué aspectos se desempeña de manera comparable o incluso superior. * **Limitaciones:** Incluir una sección sobre las limitaciones actuales de O1 brindaría una visión más completa y realista. En general, el texto está bien escrito y estructurado. Con las mejoras sugeridas, la información sería más atractiva, completa y accesible para un público más amplio.
Con tantos mensajes en tantos canales entiendo que te sea imposible leer todos los mensajes pero si no lo intento no existo. Desde Gran Canaria tengo una peticion de contenido dado tu extenso conocimiento. Un uso practico de la IA que se encuentra "escondida" en AI Bilder del Power Automate de microsoft. Todo indica que puede ser esa herramienta que permita, sin conocimientos de programacion, crear aplicaciones de uso real con ia e incluso tareas predictivas. Los uñtimos cambios de esta herramienta parecen esperanzadores pero necesitamos tu expertisse en esto. Chacho, como te lo agradezco.
Me ha impactado muchusimo cuando has sacado el tweet de IAs pensando durante semanas para pot ejemplo desarrollar una cura contra el cancer. Ojalá la gente viera las cosas increíbles con las que experimentan equipos como los de OpenAI.
Me dió mucha gracia que una vez ple pregunté sobre una película medio desconocida que solían pasar en mi infancia, y Llama 3.1 de inmediato me arrojo una respuesta, y en la misma linea de respuesta se daba cuenta que era erróneo y me daba otra respuesta y solo se volvía a corregir. Así como 10 veces.
Que brutal y fantástico y emocionante todos estos avances. Ya deseo que la pongan a pensar en la teoría de cuerdas y la pongan a pensar en la teoría unificada. Será fantástico ver hasta donde podrá llegar con sus razonamientos. Emocionante.
También los humanos razonamos de modo diverso. Claro, no me refiero a la lógica que se debería respetar, sino al modo. Hay gente que piensa en imágenes, otros en palabras (como una vocecita), otros son más intuitivos, otros siguen una lógica paso a paso, otros copian, etc. Parte del razonamiento también es subconsciente. La IA actual, creo, combina intuición derivada de sus conexiones de conceptos con lógica paso a paso. Así por ejemplo puede ser buena científica, pero no será una gran futbolista 😅. Creo que para que una IA razone de modo más científico debe tener mucha información (y capacidad para buscar más), una memoria donde pensar (un borrador donde hacer razonamientos e hipótesis), y un método científico para verificar sobre la marcha. Posiblemente los filósofos más eruditos son quienes podrían implantar un buen método científico a la IA, que la acerque más a ser ASI. Aunque al final las teorías tienen que comprobarse en el mundo real.
No solo eso, deducimos, nos criticamos y cuestionamos a nosotros mismo y buscamos experimentar para validar que tan acertado fue nuestro razonamiento y postulamos nuevas hipótesis en caso de error. Acá las "IA"... realmente no razonan. Estan siendo intuidas en las respuestas. Es decir al tener instructores, se pierde toda la verdadera idea detrás de razonar.. ya le estan dando las respuestas correctas, los seres humanos nunca hemos tenido respuestas correctas antes. Una verdadera capacidad para razonar de estos sistemas sería que reescribieran su propio código para re-entrenarse ellos mismos. Por ejemplo, si GPT-01 hubiese llegado a la conclusión ( por si mismo y sin ayuda de un equipo de expertos) de que una posible mejora era utilizar el algoritmo de Montecarlo de árbol de decisión para re entrenarse a si misma... y modificar su propio código. Entonces ahí si podríamos hablar de "razonamiento". Mientras tanto, creo que es un tema mas comercial y propagandístico decir que eso que nos muestran es razonar, cuando en realidad no lo es.
Cuestiono ese razonamiento 😅 Nosotros constantemente recibimos respuestas correctas de otros humanos. Nos enseñaron pitagoras y cálculo a base de adquirir el razonamiento de pensadores antiguos. Y aún así, el mundo natural nos ofrece una retroalimentacion: cada vez que cayó un avión, fue una demostración de que el razonamiento no fue correcto y nos invitó a perfeccionarlo. El caso de estas nuevas tecnologías es similar: reciben ejemplos de razonamiento para luego generar cadenas de razonamientos no presentes en los ejemplos. No es completamente racional, pero es el primer paso. Cuando llegue el momento que se programen solas en la manera que lo planteas, ya no sería inteligencia artificial, sería una super inteligencia artificial (el paso siguiente a una AGI)
@@Chake16 En realidad eso qu3 mencionas no es racionamiento es transmision de conocimiento...es diferente y mucho. Nadie le enseñó a pitagoras como era el teorema de pitsgoras el tuvo que razonar para llegar a una hipótesis, dudar de que fuera cierta, plantear un metodo de prueba, experimentar y verificar... la formulación de hipotesis, la experimentación y la deducción han sido claves en la creación de nuevo conocimiento. Pero recibir feedback de alguien que ya razonó eso.. no es precisamente " inteligencia" .... La c genración de nuevo conocimiento y de nuevas ideas nunca antes desarrolladas y la deducción es un proceso que requiere razonar. Muy diferente a enseñat o aprender... que mas bien las IA estan mas cerca de eso ultimo que de ser racionales.Por ejemplo la formulación de teorias.. pedirle a una IA que te formule congruenetemente una teoria sobre el origen del universo ( ni siquiera tiene que ser cierta, solo tener una logica racional.. puede ser ficción). Nosotros los humanos tampoco hemos dado con el chiste, pero muchas de nuestras teorias tienen razonamientos lógicos detras algunas sin ningun sustento muy fuerte pero con algo dr sentido... la IA solo te va a repetir lo que nosotros ya hemos dicho, por ahora no te va a razonat nada Razonar tambn significa prever un espectro de posibles impactos de tus resultados. Las IA por ejemplo ninguna esta pensando lo que nosotros si. Ninguna esta diciendose a si misma " si pudiera resolver esto encontraríamos la cura para el cancer"... muchos tenemos un motivador de progreso u objetivo cuando razonamos. Las IA solo te estan entregando datos existentes. Aptender Razonar
@@ThePowerLover Ni de cerca. El algoritmo interno lo que cuestiona es el proceso logico de salida. No a si misma. Si se cuestipnara a si misma por ejemplo, podria cambiar su propio código...algo que no tiene la capacidad de hacer por el momento.incluso si bajo su razonamien5o encuentra un mejor camino podria ir en contra de su programación y de lo que nosotros le hemos indicado que haga para tomar ese " mejo4 camino" .. ese seria el verdadero " cuestionarse a si mismo".
Hola Carlos!. sos el mejor! Siento que este metodo de razonamientos y que prometen una certeza más grande en las respuestas por el uso de mas tiempo computacional está intimamente relacionado con la adicción increscendo al dinero que se ha apoderado del amigo SAM.
Que buen video. Una buena forma de comprender la diferencia de un chat conversacional de respuesta directa y una IA pensante, es cuando juegas al ajedrez con ella, todos los modelos hasta ahora no pueden jugar ajedrez, en algun momento en que puedan materializar en algun nucleo un tablero y aprender a jugar, no solo eso, que lleguen a los niveles de los motores de ajedrez actuales, ahi ya la cosa se estaria poniendo seria.
Hace tiempo no sentía una fascinación y a la vez un miedo tan profundo como el que acabo de sentir al ver este video. Crear algo SOBREHUMANO que nos guie a un mundo mejor, a acelerar procesos como conquistar nuevos planetas, inmortalidad; o tal vez la aceleración de nuestra extinción al jugar con cosas que ni los mismos seres humanos llegamos a comprender.
Te estás olvidando que no somos libres. Vos te crees que los Gobernantes van a dejar que eso pase, asimuendo perder todo su control? O que las empresas? O que los líderes mundiales? Dejar a la IA progresar sería un caos enorme. Una cosa es nuestra opinióm, y otra, la que Permitan que suceda. Antes de eso es más probable que hayan guerras para frenar a la IA.
Hola Carlos, acabo de ver el video y me ha parecido una combinación de ideas más antiguas. El concepto de razonamiento se me ha parecido a una idea central del viejo Prolog en la que las respuestas pueden obtenerse a partir de hechos (resultados inmediatos sin razonamiento) o de la evaluación de cadenas de reglas (resultados razonados). Solo que ahora no se usan estrictamente reglas. En otra parte del video, donde se maneja el seguimiento de las cadenas de razonamiento para encontrar la óptima, tiene como base a cómo funcionan los algoritmos genéticos, que van explorando el espacio de soluciones y van mejorando el resultado, o algo más antiguo, la teoría de juegos. El salto es evidente, pero a mi entender seguimos reutilizando ideas viejas, nada, el pensamiento en espiral ascendente. Quizá cuando se comience a usar la computación cuántica como base de la IA haya un verdadero cambio de paradigma, saludos y gracias por tanta información útil e interesante.
Como educador, me emociona mucho empezar a generar contenido de concientización. Más que nada para que los más jóvenes no deleguen a lo tonto sus tareas; sino que busquen mejores maneras de aprovechamiento. Una de las problemáticas más básicas: evitar el plagió. Y dos, hacerlos concientes de que deben continuar con el desarrollo de sus procesos cognitivos.
I have seen many people explain the characteristics of O1, and it feels like only your explanation hits the key points. Other UA-camrs generally keep talking about COT, but they don't realize that the focus is on RL. Each COT is just like a move in the game of Go.
El otro día pidiéndole a o1Preview un desglose de un plan de trabajo al final de uno de sus pensamientos colocó “CLARIFICANDO SU MISIÓN mesin hanze”. Que no tenía absolutamente nada que ver con el tema que estaba pensando
Admirable. Atención yo hacía psicología inversa por decirlo de alguna manera con el asistente de Google hace 10 años y es muy parecido a gemini . Lo que quiero decir que ellos realmente van 10 o 20 años por delante en tecnología además de la recopilación de datos !
Muy interesante y actualizado el contenido como siempre. Una cosa que me parece siempre difícil de entender de estas empresas de inteligencia artificial es por qué le preguntan al que fabrica ladrillos qué significa en profundidad una catedral. Sería bueno que consulten a filósofos de la ciencia para que respondan el tipo de preguntas como "qué es pensar". Cuando ChatGPT responde se nota a la legua que en materia de ciencias sociales tiene un enorme sesgo positivista, como que no entiende las funciones de los principios de organización básica de la sociedad, que lógicamente es algo derivado de la formación de los ingenieros que diseñaron su código, que, bueno, tampoco se les puede pedir mucho en estas otras áreas que no dominan. Creo que para obtener mejores respuestas los equipos deberían indagar más bien en cosas como "en qué consiste la creatividad humana", "cuál es el tipo de información que usa la sociedad" y "cómo usan ese tipo especial de información los seres humanos" para compararla con las capacidades de las máquinas.
Ver cómo la IA razona cada vez mejor es impresionante, pero también me da un poco de vértigo, nos estamos volviendo tan dependientes de la eficiencia que olvidamos lo que nos hace únicos? Freud decía que el arte viene de lo más profundo de nosotros, de nuestras emociones y vivencias. que valor tendrá un cuadro o una canción si una máquina puede hacerlo "perfecto"? Y Aristóteles, con su rollo del equilibrio y la virtud, como encontraremos ese balance en un mundo donde las máquinas hacen todo?, que nos quedará por hacer, por sentir, por ser? Son preguntas difíciles, pero creo que es importante pensar en ellas. La tecnología está genial, pero como humanidad debemos cuidar lo que nos hace humanos. (Solo es una reflexion pero confieso que soy de los primeros en apoyar la IA, tambien creo que puede democratizar el acceso a un nuevo nivel de entendimiento de las cosas.)
Qué interesante, justamente hace unos días me la pasé con chatgpt el día completo intentando que me ayudara con mis proyectos y aunque intentara llevarlo "de la mano" era igual que un niño que se distrae con una mariposa, al menor descuido estaba lejos de donde lo quería llevar. Es capaz de recordar las conversaciones, pero todas las reflexiones a las que lo he orientado para que me ayude a obtenerlas no son un conocimiento persistente.
Ahora se pone de verdad interesante la IA. Lo investigado hasta ahora ha sido el camino para llegar a este punto, el hacer una inteligencia que razone por nosotros puede llevarnos muy lejos. Y todo esto trabajando en binario, si la estructura cuántica se resolviera.....
Llevarnos muy lejos o LLevarlos muy lejos?. Ten en cuenta q la dueña de la AI no es la humanidad, son empresas. Y creeme, puede densemplear a miles en un dia. Espero q tengas tu propia empresa y si aun la tuvieras como competirias con una multinacional q acapara recursos y puede tender un centro de datos con AI q te destruye como competencia?. Q sigue?, para ti y tu familia?
@@harimgarcialamont9140 a los problemas, soluciones y movilización. La IA no la vas a parar, e igualmente la revolución industrial ya nos enseño que se generan necesidades distintas. Si nadie puede trabajar, pues quizás sea el momento de plantearse otros modelos económicos, otros modelos de trabajo, la renta universal, etc.
He tratado de mejorar el razonamiento de gpt y me he dado cuenta de varias cosas. Me di cuenta que gpt es bueno planificando el proceso para llegar a la respuesta pero es muy malo resolviendo el proceso para llegar ala conclusión. También que el modelo está diceñado para imitar y no para razonar, al ver que el modelo decia resolver el problema viendo con ojos que no tiene y dedos que tampoco tiene decidí decirle que no tiene ojos ni dedos. Ahí entendí que mejoró sin necesidad de hacer un razonamiento paso a paso. Decirle lo que no puede hacer ayuda a no gastar token. Lo que no he podido resolver es hacer que vea la respuesta si ya tiene la forma de obtenerlo. Es como saber que para saber el resultado es 2 + 2 pero al darle resultado diga 6 porque en los datos de entrenamiento ese fue el que más vio
Increible!!! Aunque... ❗saven cual puede ser el siguiente paradigma⁉️ La abstracción: 1) la IA debe identificar los elementos de de razonamiento para la traea. 2) luego hacer un cambio de variable para manipularlos en un sistema ya conicido y agil de operar. 3) por último, luego de operarlos debe volver a representar los elementos como razonamiento y entregar el resultado. En resumen hacer simbolos mas manejables Por ejemplo detectar las razones bacicas de un enunciado, representarlas como letras, luego hacer operaciones logicas con con las letras y depues volver a reemplazar las variables por el concepto original. Esto ahorra tokens y tiempo de inferencia, ademas se puede hacer un dataset de razonamientos validos a modo de operaciones logicas.
Ya estamos y sin IA. Cratururas adoctrinadas por un smartphone, familias igual... Sin preguntarse absolutamente nada. Y lo mejor de todo, que nos creemos especiales e únicos. Así que la IA poca culpa tiene.
la singularidad es lo mas abrumador que existe, es como si saltaramos del 2024 al año 3000. no hay un proceso humano en el medio, ese salto lo hará la IA.. puede significar que seamos la ultima generación mortal, nuestros hijos ya podrían saber como ser inmortales. yo creo que el conocimiento va a estar gracias a la IA, pero no las maquinas para llevarlo a cabo, porque los robots están en pañales aun, pero si tenemos todo el conocimiento, solo basta esperar una década para crear la maquina necesaria para lo que fuese con nuestras propias manos.
@@SinfoniaMayor por qué quisiera contribuír ideológicamente a la inmortalidad, si será para nuestra descendencia y no para nosotros? 🤔 Filosóficamente no me conmueve ni un poco. Preferiría que sigan llendose y viniendo, si yo me voy a ir.
Yo creo que la siguiente pregunta sería, como evaluar por cual modelo me voy dependiendo en la complejidad de la pregunta, teniendo en cuenta que habria que tener un agente clasificador para definir si es una pregunta que puede ser respondida utilizando el razonamiento temprano o tardío y sobre todo evitar el error humano de super poner el razonamiento temprano sobre el tardio de manera automica
¡Muy buen video! Sin embargo, me gustaría ver en tu canal más contenido sobre otras opciones. Casi siempre que veo un video tuyo, aparece OpenAI. Hay tecnologías igualmente increíbles como Ollama, los nuevos PCC de Apple, o los modelos locales que, en mi opinión, beneficiarán más a las personas a corto plazo. ¡Un saludo!
Hermano que gran video y que genial tus animaciones, atrapan mucho. Tu mismos las haces y con que programa? Felicidades por todo lo que estás logrando 🫶🏻
16:30 Desde hace algún tiempo siempre que generabas una respuesta en chatGPT, ese preguntaba si la respuesta estaba correcta o no era de tu agrado, así nosotros hacíamos de profesores también
Noam Brown ni siquiera estaba en mi radar... Anotado. Carlos y si nos compartes una lista de estas nuevas mentes que estan construyendo sobre lo sentado por Hinton, LeCun, Bengio, Hassabis y Sutskever?.. Gracias, gran video!... "hay camino"
Como investigador, la verdad es que el futuro pinta muy interesante con esta y otras herramientas revolucionarias que han ido surgiendo. Creo que AlphaFold es ya la prueba fehaciente del potencial de las mismas, y espero que en breve, pueda ver resultados similares también en mi campo..
@dotcsv, podrias explicar el factor creativo en estas cadenas de pensamiento? Una pregunta que me surge es, las opciones valoradas y analizadas en una cadena de pensamiento, estan basadas siempre en un paradigma previo o son estos modelos capaces de generar nuevos outputs mediante la creacion de nuevos fundamentos? Con el ejemplo del profesor, si el profesor solo conoce la fisica neutoniana, nunca llegariamos a la cuantica porque para llegar ahi hay que romper con las leyes anteriores que hasta el momento eran fundacionales... Ojala me este explicando! Gracias!
Gracias por la explicación es muy interesante el tema , espero que este sea una pieza importante para llegar a la hipotético AGI en un futuro no muy lejano.
Muy interesante! La verdad es que son tiempos ilusionantes. Otra sinergia que me parece apasionante con este tipo de modelos que razonan mejor es la que se abre con los sistemas de verificación automática estilo Lean. Las matemáticas se están empezando a formalizar en este lenguaje de programación funcional que permite validar la corrección de los desarrollos matemáticos. Dejo un vídeo al respecto: ua-cam.com/video/e049IoFBnLA/v-deo.html En ese vídeo Terence Tao (uno de los mejores matemáticos del mundo) habla de como la IA y la informática en general pueden ayudar al avance de las matemáticas. En concreto habla del proyecto Lean y de cómo podría ayudar a un modelo tipo GPT a evitar los errores y alucinaciones, y seguir sólo caminos correctos. Esto de O1 que has contado me recuerda bastante a lo anterior.
Es un canal con contenido relacionado con la IA. Ve a ver mejor un canal dedicado a setups. No hay nada peor que cuando comienzan a desvirtuar el contenido y terminan luego haciendo video reacciones.
En el punto en el de razonar durante semanas. Crees que podría correr el riesgo de sobre entrenar un a pregunta? Principalmente igual que se puede sobre entrenar un modelo clasificador podrías pensar demasiado una pregunta y que la respuesta fuera demasiado específica
Dijiste algo en tus videos sobre la inferencia que hace que no se requiera tanto aumento de la memoria. Me pregunte entonces, se puede enseniar a inferir en la educación primaria? pues esta se apoya en la memorización.
recuerdo como en el boom de chatgpt me negaba a usarlo y decia que estaba sobrevalorado, no fue sino hasta el ano pasado que le di una oportunidad y me volo la cabeza y no estoy bromeando si te digo que lo uso a diario cuando tengo que hacer algun calculo en mi dia a dia o preguntas que me sugan e incluso con programacion
Despues de ver todo esto, el uso de algoritmos montados sobre LLM parece ser la solución a la fase 2. El dia que se llegue a la AGI creo nadie va a asombrarse porque tendremos sistemas que nos darán respuestas tan inteligentes que no sabremos distinguir AGI de no-AGI.
Con o1 he llegado a respuestas filosóficas mucho más profundas que con GPT4o, se toca mucho la ciencia, matemáticas y programación en estas nuevas cadenas de pensamiento, pero creo que esas cadenas de pensamiento para respuestas filosóficas también son mucho más profundas, ¿hablaremos en un futuro cercano de la maquina filosófica? O solo piensa el humano?
La gente de Open AI y todo lo que han logrado es realmente lo mejor que hizo la humanidad en la última década. Realmente muchos incluyéndome, al ver las IA de las otras empresas y ver cómo nos las intentan vender, suena innecesario y que no vale la pena; pero Open AI realmente se nota que se está esforzando por ir mejorando sus modelos, compartir la info e incluso mejorar la vida de toda la humanidad...
Esto de la mejor decisión me hace recordar a un capítulo de una serie animada, llamada Pincode en el que los personajes discuten para saber cual es la mejor decisión a todo, y en un error crítico, todo se detiene, estuvieron atrapados en una fracción de segundo, usando su propio razonamiento lograron salvarse, no quiero imaginar el día en el que el planeta se vea comprometido y la respuesta de la IA sea un 42
Tengo una duda, la mejora del razonamiento secuencial, que en cierta forma va reduciendo las posibilidades de respuesta que te puede dar la IA pero mejorando su calidad en simultaneo, no genera a largo plazo el aumento de incapacidad de desarrollo de creatividad de la IA o de espontaneidad?. Es decir, yo como ser humano puedo evaluar distintas formas de hacer algo, razonarlo, pensarlo, hasta debatirlo con pares, pero en cuanto a creatividad o innovación, no siempre las opcciones mas eficicientes o tecnicamente correctas, son las mejores en un inicio. Siempre de una idea no fundamentada pero esencialmente creativa o innovadora se puede trabajar y desarrollar algo unico, que en un principio no era la mejor opccion. A lo que voy es que al incrementar el razonamiento de la IA, se pierden creo yo, estas ideas o respuestas con identidad. No se si se llega a entender mi planteamiento pero cualquier cosa intento explicarme mejor, Saludos Gaspar. 15:47
Entiendo. Sin embargo creo que no sería tanasi. Recuerda que lo que hace es añadir esas líneas de razonamiento a su entrenamiento. O sea es adicionarlo. No es reemplazarlo. Lo que hace es generar nuevas dimensiones dentro del espaciolatente
El espacio latente viene siendo como la mente de la IA. Ahí en tiene conceptos palabras que están ev varias dimensiones relacionadas. Al entrenarlas tu las acercas o las alejas de otras palabras en varias dimensiones. Si entrenas al modelo con esos datos lo que haces es crear más dimensiones y mejor forma de organizar ese conocimiento
🔥 ¡No dejéis de suscribiros y compartir el vídeo para ayudar al canal a llegar al 1.000.000 DE SUBS! 🔥
Razona esto con gpt o1 😅 Con eso basta para unificar todo las 4 fuerzas en un único marco simple cuerdas las superposicones de los qubits bucles y la espuma cuántica la red de los qubits de mis constantes cuantizadas da un resumen de mi idea su potencial y viabilidad. ....
doble rendija explicada con mi idea : Es x q el fotón viaja comprimiendo y expandiendo al infinito y interaciona distinto a cuando lo medimos y forzamos a q sea C x nuestra escala espacio temporal de referencia 🙃 se necesita un marco 3D q lo explique como está fumada : Si llamamos a los qubits 1/-1 y creamos un qutrit (1.0.-1) usamos el 0 como clasico y de referencia siempre sale (1=0=-1)=(-1=0=1) con eso recreas relatividad y campos en 3D usando las constantes y conceptos matemáticos x ejemplo C se vería como C1=C=C-1 y E=MC² se ve como (MC*=E*=MC²=E=-MC*=-E*)=(-MC*=-E*=MC²=E=MC*=E*) podemos verlo asi pasado comprimido=presente normal y referencia=futuro expandido materia/antimateria=interacion=materia/antimateria
Wao, por lo que dices o1 es más novedoso de lo que pensaba.
Si yo fuera a crear algo similar ahora mismo, hubiese hecho algo comparable a un MoE donde los expertos son uno en razonar y luego otro en dar la respuesta dado el razonamiento y el prompt. Ambos con fine-tuning/hidden-prompts específicos. Y el tiempo que se toma en razonar varía porque usan menos compute o modelos con más/menos parámetros. (Cuando viene a ver se atreven a usar hasta una variante de GPT-2.)
De esta manera los razonamientos errados serían similares a los pensamientos intrusivos y el segundo paso con el segundo experto sería algo como lo que las personas decidimos decir. (Porque no decimos todo lo que pensamos.)
En realidad lo tenía en mi cabeza como un LLM App.
Antes estábamos en el boom de las DApps que corren en el Ethereum VM, y ahora estamos en el boom de las aplicaciones que corren varias LLMs con prompts como código.
2:35 q buena el easter egg
Creo que es mejor ocultar esta información. Alguno podría dudar de Dios o algo peor.
Feliz Domingo y que tengáis un bonito octubre. No abuséis del Pacharán!!!
Que opinas de la ley Californiana que regula los modelos IA? De que por obligación todo lo generado por IA debe tener una marca irreplicable que indique que es generado de IA
Hasta hace unos meses, era posible mantenerse al día y entender que estaba pasando. Pero desde hace un par de semanas me siento superado por tanta AI, tanto avance, y esta carrera desenfrenada por tantos modelos. Agradecer a Dot CSV porque es como un faro en esta tormenta, rescatando lo de veras importante. Necesitamos alguien que nos señale hacia donde mirar, un guía, y para mi, dentro de los muy buenos divulgadores disponibles en español, dot CSV es el que se ha ganado mi mayor aprecio. No se si él entiende este rol que se ha ido ganando, y la responsabilidad que eso conlleva, supongo que si.
El único divulgador de IA que vale la pena ver.
Bueno, también está Joan Hernández, en Inteligencia Artificial, un logo morado. Ese da noticias todos los lunes.
Si pero Joan le veo un tinte a exagerar y "vender humo" , dotcsv es lo veo un tipo mucho mas objetivo y nada vemde humos...@@ElInventor
Exacto, que no te quiere vender la moto y que tiene fundamentos de IA de la anterior generación, yo miraba sus videos donde empezaba a hablar del descenso del gradiente.
@@TheMAIKOLPEREIRALo único que vende son sus cursos. Lo demás que dice es divulgación, no dice nada de su cosecha, y siempre da las fuentes de lo que informa.
Nah, que tu ni sepas buscar es que el problema eres tú, es mal el mismo ha recomendado muchos otros divulgadores en su canal 😂
Currazo de animaciones, qué buena Carlos, gracias!
Donde generas tus animaciones?
@@InquietafeCreo recordar que alguna vez Carlos dijo que las hacía él mismo con After Effects.
Trabajazo
Más fácil con Davinci Resolve.
Me encanta este canal por cómo nos explicas lo que ocurre entre bastidores.
Otros explican solamente la multitud de posibilidades que ofrece la IA, tu además entras al detalle de "como lo hace".
Espectacular!! 👏🏼 👏🏼 👏🏼
Realmente increible tu vision de lo que seria la IA cuando pràcticamente no se hablaba del tema. Considero que tienes un gran mérito por ello y te considero un referente para poder conocer qué hay realmente por detras de la IA. Gracias por tus aportes y compartir tus conocimientos 👏👍
Me ha pasado lo mismo, he alucinado porque esto lo anticipó hace un año
Después de tanto pensar la respuesta de la IA es 42
Hombre de cultura 👍🏻
¿Cual es la respuesta a todas las cosas? No lo había probado Jajajaja
*
Al fin qué son 10,000 millones de años entre cuates!!
¡Se volvió canon de golpe!
Para quienes no lo conozcan, les recomiendo el cuento corto de Asimov: "La última pregunta", las similitudes son increíbles!
Vine a los comentarios a recomendar lo mismo jajja. Cada día nos veo mas cerca de este cuento! Es una locura lo visionario que fue Asimov.
Ese cuento es increíble
habra que hacersela jejej
No lo conocía!! Locura total
Buenísimo! De mis favoritos de Asimov
Cada día me gusta más este comunicador, y hay una forma bastante fácil de evaluarlos: contar cuantas veces usan la palabra “básicamente”, por ejemplo en este vídeo Carlos no la usa ni una sola vez (o al menos yo Bo me he dado cuenta), sin embargo hay otros que te da la sensación de que es la única que usan…
Maravillosamente explicado, muchas Gracias.
Gracias por todo mi Jhonny Sins de la IA
Todo un semental de la IA 😎
😂
Así si se pone bueno verlo 🤠
Razonar durante días, semanas… Cada vez estamos más cerca de crear a Multivac, y le haremos la última pregunta.
maldita entropia...
@@ivackerdev DATOS INSUFICIENTES PARA RESPUESTA SIGNIFICATIVA.
Que miedo chavos
Muy buena explicación toda una masterclass para entender cómo funciona casi con seguridad el nuevo modelo O1.
Es agradable ver que aquí si te dicen las fuentes, ya es bastante con saber el nombre.
No como otros que dicen: "de un estudio de Stanford veamos está tablita".
Excelente muchas felicidades.
Por lo general los links los pongo en la descripción, si echas alguno en falta avísame y lo actualizo 👍
@@DotCSVerror mío, lo ví muy rápido.
Si están, muchas gracias por la labor. 👌
Se aprende mucho en este lugar. 🎉
Hola! Yo estoy haciendo un trabajo sobre el pensamiento crítico y computacional de los programadores con la IA. He visto tus vídeos sobre como es que programa la IA y me gustaría más videos así. Nueva seguidora ;)
Interesante el trabajo.
A mí me pasó algo "extraño" con el 4o, le subí un documento y me respondió que necesitaría tiempo para analizarlo, ya que mi solicitud era muy explícita. Muchas horas después me respondió moderadamente bien. Eso me sorprendió y desde entonces le digo: Antes de darme la respuesta analiza bien lo que me vas a responder, para que sea coherente con mi petición. Y sí, ahora lo hace, no sé si estaba usando este nuevo modelo y no me di cuenta, pero me sorprendió, aunque a veces funcionara y a veces no.
Muy buen dato.
El post que compartiste de Noam y tu frase "Hay mucho trabajo por hacer y mucho camino por andar; PERO AMIGOS HAY CAMINO" 10/10
El texto está bien organizado, presenta información clara y concisa sobre O1. La estructura de preguntas frecuentes es efectiva y fácil de seguir.
## Sugerencias para mejorar la gramática y el estilo:
* **Título:** En lugar de "Nueva nota", un título más informativo sería "¿Preguntas frecuentes sobre O1?" o "¿Qué es O1 y cómo funciona?".
* **Enfoque en la audiencia:** El texto asume un conocimiento previo de IA y modelos como GPT. Sería útil agregar una breve introducción para una audiencia más general, explicando qué es un modelo de lenguaje y por qué O1 es significativo.
* **Ejemplo concreto:** Incluir un ejemplo de cómo O1 resuelve un problema con "cadenas de pensamiento" haría la explicación más tangible.
* **Variedad lingüística:** Utilizar sinónimos para evitar repeticiones de palabras como "razonamiento", "modelo" o "complejo". Por ejemplo:
* "...se centra en **optimizar** la capacidad de razonamiento..."
* "...A diferencia de **versiones previas** como GPT..."
* "...aborda problemas que requieren mayor **profundidad analítica**..."
* **"Verify step by step":** En lugar de usar la frase en inglés, traducirla como "verificación paso a paso" mantiene la coherencia del texto.
* **Unificar tiempos verbales:** En la sección "Cómo se entrena O1..." se mezclan presente y futuro. Se recomienda unificar en presente: "El entrenamiento de O1 **involucra**... Se **utilizan**... O1 **recibe**...".
* **Repetición en "¿Se inspira O1 en AlphaGo?":** En lugar de repetir la pregunta en la respuesta, se puede decir directamente: "Sí, el desarrollo de O1 se inspira...".
* **Gerundio al inicio de la oración final:** Cambiar "Si bien aún hay desafíos por superar, su desarrollo abre..." por "Si bien aún hay desafíos por superar, el desarrollo de O1 abre..."
## Sugerencias para mejorar el contenido:
* **Profundizar en "evaluador de procesos":** ¿Cómo determina el "evaluador de procesos" la lógica y coherencia? Dar más detalles sobre este componente crucial fortalecería la explicación.
* **Ejemplos de conjuntos de datos:** Mencionar ejemplos concretos de los conjuntos de datos utilizados para el entrenamiento daría una idea más clara del proceso.
* **Comparación con humanos:** Si bien se menciona que O1 aún no supera a los humanos, sería interesante mencionar en qué aspectos se desempeña de manera comparable o incluso superior.
* **Limitaciones:** Incluir una sección sobre las limitaciones actuales de O1 brindaría una visión más completa y realista.
En general, el texto está bien escrito y estructurado. Con las mejoras sugeridas, la información sería más atractiva, completa y accesible para un público más amplio.
Con tantos mensajes en tantos canales entiendo que te sea imposible leer todos los mensajes pero si no lo intento no existo. Desde Gran Canaria tengo una peticion de contenido dado tu extenso conocimiento. Un uso practico de la IA que se encuentra "escondida" en AI Bilder del Power Automate de microsoft. Todo indica que puede ser esa herramienta que permita, sin conocimientos de programacion, crear aplicaciones de uso real con ia e incluso tareas predictivas. Los uñtimos cambios de esta herramienta parecen esperanzadores pero necesitamos tu expertisse en esto. Chacho, como te lo agradezco.
Me ha impactado muchusimo cuando has sacado el tweet de IAs pensando durante semanas para pot ejemplo desarrollar una cura contra el cancer. Ojalá la gente viera las cosas increíbles con las que experimentan equipos como los de OpenAI.
Me dió mucha gracia que una vez ple pregunté sobre una película medio desconocida que solían pasar en mi infancia, y Llama 3.1 de inmediato me arrojo una respuesta, y en la misma linea de respuesta se daba cuenta que era erróneo y me daba otra respuesta y solo se volvía a corregir. Así como 10 veces.
Que brutal y fantástico y emocionante todos estos avances.
Ya deseo que la pongan a pensar en la teoría de cuerdas y la pongan a pensar en la teoría unificada. Será fantástico ver hasta donde podrá llegar con sus razonamientos. Emocionante.
Excelente Carlos. Te sigo desde hace varios años desde Argentina. Me encantó el árbol que aparece en el minuto 15:05 del video
También los humanos razonamos de modo diverso. Claro, no me refiero a la lógica que se debería respetar, sino al modo. Hay gente que piensa en imágenes, otros en palabras (como una vocecita), otros son más intuitivos, otros siguen una lógica paso a paso, otros copian, etc. Parte del razonamiento también es subconsciente.
La IA actual, creo, combina intuición derivada de sus conexiones de conceptos con lógica paso a paso. Así por ejemplo puede ser buena científica, pero no será una gran futbolista 😅.
Creo que para que una IA razone de modo más científico debe tener mucha información (y capacidad para buscar más), una memoria donde pensar (un borrador donde hacer razonamientos e hipótesis), y un método científico para verificar sobre la marcha.
Posiblemente los filósofos más eruditos son quienes podrían implantar un buen método científico a la IA, que la acerque más a ser ASI.
Aunque al final las teorías tienen que comprobarse en el mundo real.
No solo eso, deducimos, nos criticamos y cuestionamos a nosotros mismo y buscamos experimentar para validar que tan acertado fue nuestro razonamiento y postulamos nuevas hipótesis en caso de error.
Acá las "IA"... realmente no razonan. Estan siendo intuidas en las respuestas. Es decir al tener instructores, se pierde toda la verdadera idea detrás de razonar.. ya le estan dando las respuestas correctas, los seres humanos nunca hemos tenido respuestas correctas antes. Una verdadera capacidad para razonar de estos sistemas sería que reescribieran su propio código para re-entrenarse ellos mismos. Por ejemplo, si GPT-01 hubiese llegado a la conclusión ( por si mismo y sin ayuda de un equipo de expertos) de que una posible mejora era utilizar el algoritmo de Montecarlo de árbol de decisión para re entrenarse a si misma... y modificar su propio código. Entonces ahí si podríamos hablar de "razonamiento". Mientras tanto, creo que es un tema mas comercial y propagandístico decir que eso que nos muestran es razonar, cuando en realidad no lo es.
Cuestiono ese razonamiento 😅
Nosotros constantemente recibimos respuestas correctas de otros humanos. Nos enseñaron pitagoras y cálculo a base de adquirir el razonamiento de pensadores antiguos. Y aún así, el mundo natural nos ofrece una retroalimentacion: cada vez que cayó un avión, fue una demostración de que el razonamiento no fue correcto y nos invitó a perfeccionarlo.
El caso de estas nuevas tecnologías es similar: reciben ejemplos de razonamiento para luego generar cadenas de razonamientos no presentes en los ejemplos. No es completamente racional, pero es el primer paso. Cuando llegue el momento que se programen solas en la manera que lo planteas, ya no sería inteligencia artificial, sería una super inteligencia artificial (el paso siguiente a una AGI)
@@erickr9733 o1 se critica y cuestiona a si mismo.
@@Chake16 En realidad eso qu3 mencionas no es racionamiento es transmision de conocimiento...es diferente y mucho. Nadie le enseñó a pitagoras como era el teorema de pitsgoras el tuvo que razonar para llegar a una hipótesis, dudar de que fuera cierta, plantear un metodo de prueba, experimentar y verificar... la formulación de hipotesis, la experimentación y la deducción han sido claves en la creación de nuevo conocimiento. Pero recibir feedback de alguien que ya razonó eso.. no es precisamente " inteligencia" .... La c genración de nuevo conocimiento y de nuevas ideas nunca antes desarrolladas y la deducción es un proceso que requiere razonar. Muy diferente a enseñat o aprender... que mas bien las IA estan mas cerca de eso ultimo que de ser racionales.Por ejemplo la formulación de teorias.. pedirle a una IA que te formule congruenetemente una teoria sobre el origen del universo ( ni siquiera tiene que ser cierta, solo tener una logica racional.. puede ser ficción). Nosotros los humanos tampoco hemos dado con el chiste, pero muchas de nuestras teorias tienen razonamientos lógicos detras algunas sin ningun sustento muy fuerte pero con algo dr sentido... la IA solo te va a repetir lo que nosotros ya hemos dicho, por ahora no te va a razonat nada
Razonar tambn significa prever un espectro de posibles impactos de tus resultados. Las IA por ejemplo ninguna esta pensando lo que nosotros si. Ninguna esta diciendose a si misma " si pudiera resolver esto encontraríamos la cura para el cancer"... muchos tenemos un motivador de progreso u objetivo cuando razonamos. Las IA solo te estan entregando datos existentes.
Aptender Razonar
@@ThePowerLover Ni de cerca. El algoritmo interno lo que cuestiona es el proceso logico de salida. No a si misma. Si se cuestipnara a si misma por ejemplo, podria cambiar su propio código...algo que no tiene la capacidad de hacer por el momento.incluso si bajo su razonamien5o encuentra un mejor camino podria ir en contra de su programación y de lo que nosotros le hemos indicado que haga para tomar ese " mejo4 camino" .. ese seria el verdadero " cuestionarse a si mismo".
Anoche volví al canal buscando justo esta información que sacas hoy! Que grande DotCSV, el mejor de todos!
Explicado con claridad y sencillez. Fantástico. Eres un máquina.
Hola Carlos!. sos el mejor!
Siento que este metodo de razonamientos y que prometen una certeza más grande en las respuestas por el uso de mas tiempo computacional está intimamente relacionado con la adicción increscendo al dinero que se ha apoderado del amigo SAM.
Que buen video.
Una buena forma de comprender la diferencia de un chat conversacional de respuesta directa y una IA pensante, es cuando juegas al ajedrez con ella, todos los modelos hasta ahora no pueden jugar ajedrez, en algun momento en que puedan materializar en algun nucleo un tablero y aprender a jugar, no solo eso, que lleguen a los niveles de los motores de ajedrez actuales, ahi ya la cosa se estaria poniendo seria.
Excelente video!!!
Muchas gracias por mantenernos informados Dot CSV
Hace tiempo no sentía una fascinación y a la vez un miedo tan profundo como el que acabo de sentir al ver este video. Crear algo SOBREHUMANO que nos guie a un mundo mejor, a acelerar procesos como conquistar nuevos planetas, inmortalidad; o tal vez la aceleración de nuestra extinción al jugar con cosas que ni los mismos seres humanos llegamos a comprender.
Eso o nuestra tecnología ya no crecerá de forma exponencial
Te estás olvidando que no somos libres.
Vos te crees que los Gobernantes van a dejar que eso pase, asimuendo perder todo su control? O que las empresas? O que los líderes mundiales?
Dejar a la IA progresar sería un caos enorme. Una cosa es nuestra opinióm, y otra, la que Permitan que suceda.
Antes de eso es más probable que hayan guerras para frenar a la IA.
Gracias por mantenernos informados de los increíbles avances de la IA!
Hola Carlos, acabo de ver el video y me ha parecido una combinación de ideas más antiguas. El concepto de razonamiento se me ha parecido a una idea central del viejo Prolog en la que las respuestas pueden obtenerse a partir de hechos (resultados inmediatos sin razonamiento) o de la evaluación de cadenas de reglas (resultados razonados). Solo que ahora no se usan estrictamente reglas. En otra parte del video, donde se maneja el seguimiento de las cadenas de razonamiento para encontrar la óptima, tiene como base a cómo funcionan los algoritmos genéticos, que van explorando el espacio de soluciones y van mejorando el resultado, o algo más antiguo, la teoría de juegos. El salto es evidente, pero a mi entender seguimos reutilizando ideas viejas, nada, el pensamiento en espiral ascendente. Quizá cuando se comience a usar la computación cuántica como base de la IA haya un verdadero cambio de paradigma, saludos y gracias por tanta información útil e interesante.
Como educador, me emociona mucho empezar a generar contenido de concientización. Más que nada para que los más jóvenes no deleguen a lo tonto sus tareas; sino que busquen mejores maneras de aprovechamiento.
Una de las problemáticas más básicas: evitar el plagió.
Y dos, hacerlos concientes de que deben continuar con el desarrollo de sus procesos cognitivos.
I have seen many people explain the characteristics of O1, and it feels like only your explanation hits the key points. Other UA-camrs generally keep talking about COT, but they don't realize that the focus is on RL. Each COT is just like a move in the game of Go.
Iremos cambiando la forma de comunicarnos con estos nuevos modelos o1 que están evolucionado, gracias por compartir este contenido . ❤
Wow, esto puede cambiar los modelos de optimización de consultas en los manejadores de base de datos relacionales. Ufff, mindblowing!
El otro día pidiéndole a o1Preview un desglose de un plan de trabajo al final de uno de sus pensamientos colocó “CLARIFICANDO SU MISIÓN mesin hanze”. Que no tenía absolutamente nada que ver con el tema que estaba pensando
Muchas gracias por tomarte el tiempo de hacer estos vídeos! De verdad increíbles. Saludos desde México
Admirable.
Atención yo hacía psicología inversa por decirlo de alguna manera con el asistente de Google hace 10 años y es muy parecido a gemini . Lo que quiero decir que ellos realmente van 10 o 20 años por delante en tecnología además de la recopilación de datos !
Muy interesante y actualizado el contenido como siempre. Una cosa que me parece siempre difícil de entender de estas empresas de inteligencia artificial es por qué le preguntan al que fabrica ladrillos qué significa en profundidad una catedral. Sería bueno que consulten a filósofos de la ciencia para que respondan el tipo de preguntas como "qué es pensar". Cuando ChatGPT responde se nota a la legua que en materia de ciencias sociales tiene un enorme sesgo positivista, como que no entiende las funciones de los principios de organización básica de la sociedad, que lógicamente es algo derivado de la formación de los ingenieros que diseñaron su código, que, bueno, tampoco se les puede pedir mucho en estas otras áreas que no dominan. Creo que para obtener mejores respuestas los equipos deberían indagar más bien en cosas como "en qué consiste la creatividad humana", "cuál es el tipo de información que usa la sociedad" y "cómo usan ese tipo especial de información los seres humanos" para compararla con las capacidades de las máquinas.
Muchísimas gracias por arrojar tanta luz a los que no conocemos como funcionan estos modelos por detrás. Este contenido vale millones 🎉
Gracias Patricio! Y gracias por tus palabras en Twitch :)
@@DotCSV merecido👏👏
Ver cómo la IA razona cada vez mejor es impresionante, pero también me da un poco de vértigo, nos estamos volviendo tan dependientes de la eficiencia que olvidamos lo que nos hace únicos? Freud decía que el arte viene de lo más profundo de nosotros, de nuestras emociones y vivencias. que valor tendrá un cuadro o una canción si una máquina puede hacerlo "perfecto"? Y Aristóteles, con su rollo del equilibrio y la virtud, como encontraremos ese balance en un mundo donde las máquinas hacen todo?, que nos quedará por hacer, por sentir, por ser? Son preguntas difíciles, pero creo que es importante pensar en ellas. La tecnología está genial, pero como humanidad debemos cuidar lo que nos hace humanos. (Solo es una reflexion pero confieso que soy de los primeros en apoyar la IA, tambien creo que puede democratizar el acceso a un nuevo nivel de entendimiento de las cosas.)
Qué interesante, justamente hace unos días me la pasé con chatgpt el día completo intentando que me ayudara con mis proyectos y aunque intentara llevarlo "de la mano" era igual que un niño que se distrae con una mariposa, al menor descuido estaba lejos de donde lo quería llevar. Es capaz de recordar las conversaciones, pero todas las reflexiones a las que lo he orientado para que me ayude a obtenerlas no son un conocimiento persistente.
Pedazo de video Carlos. Que pasada de explicación. Un abrazo. Gracias. 👏👍
Que genial lo que nos espera, gracias chaval por tu divulgación
Ahora se pone de verdad interesante la IA. Lo investigado hasta ahora ha sido el camino para llegar a este punto, el hacer una inteligencia que razone por nosotros puede llevarnos muy lejos. Y todo esto trabajando en binario, si la estructura cuántica se resolviera.....
Llevarnos muy lejos o LLevarlos muy lejos?. Ten en cuenta q la dueña de la AI no es la humanidad, son empresas. Y creeme, puede densemplear a miles en un dia. Espero q tengas tu propia empresa y si aun la tuvieras como competirias con una multinacional q acapara recursos y puede tender un centro de datos con AI q te destruye como competencia?. Q sigue?, para ti y tu familia?
@@harimgarcialamont9140 a los problemas, soluciones y movilización. La IA no la vas a parar, e igualmente la revolución industrial ya nos enseño que se generan necesidades distintas. Si nadie puede trabajar, pues quizás sea el momento de plantearse otros modelos económicos, otros modelos de trabajo, la renta universal, etc.
Tremenda investigación te tiraste, bastante coherente y muy bien animado, muchas gracias
He tratado de mejorar el razonamiento de gpt y me he dado cuenta de varias cosas. Me di cuenta que gpt es bueno planificando el proceso para llegar a la respuesta pero es muy malo resolviendo el proceso para llegar ala conclusión. También que el modelo está diceñado para imitar y no para razonar, al ver que el modelo decia resolver el problema viendo con ojos que no tiene y dedos que tampoco tiene decidí decirle que no tiene ojos ni dedos. Ahí entendí que mejoró sin necesidad de hacer un razonamiento paso a paso. Decirle lo que no puede hacer ayuda a no gastar token. Lo que no he podido resolver es hacer que vea la respuesta si ya tiene la forma de obtenerlo. Es como saber que para saber el resultado es 2 + 2 pero al darle resultado diga 6 porque en los datos de entrenamiento ese fue el que más vio
Increible!!! Aunque... ❗saven cual puede ser el siguiente paradigma⁉️
La abstracción:
1) la IA debe identificar los elementos de de razonamiento para la traea.
2) luego hacer un cambio de variable para manipularlos en un sistema ya conicido y agil de operar.
3) por último, luego de operarlos debe volver a representar los elementos como razonamiento y entregar el resultado.
En resumen hacer simbolos mas manejables
Por ejemplo detectar las razones bacicas de un enunciado, representarlas como letras, luego hacer operaciones logicas con con las letras y depues volver a reemplazar las variables por el concepto original.
Esto ahorra tokens y tiempo de inferencia, ademas se puede hacer un dataset de razonamientos validos a modo de operaciones logicas.
así debería tumbarse al marxismo
Razonamiento análogo.
Gran video y explicación Carlos, me encantó los infographics animados, con que los haces?
Maravilloso vídeo. Eres un máquina, sigue así (o mejor).
Piratilla, estás igual que ese joven e inexperto DotCSV.
Un saludo.
12:26 wow como a cambiado el seseube, icreíble la diferencia entre una voz segura y con experiencia a día de hoy
Cada dia mas cerca de la singularidad
Ya estamos y sin IA. Cratururas adoctrinadas por un smartphone, familias igual... Sin preguntarse absolutamente nada. Y lo mejor de todo, que nos creemos especiales e únicos.
Así que la IA poca culpa tiene.
Es solo lenguaje de momento. Esto no tiene nada de cercano a la singularidad.
Aún así es una objeción acertada, 'más' cerca es técnicamente correcto.
Cómo vamos a saber cuando pase? Cómo podemos estar seguros que no ha empezado a suceder ya!? El futuro nos juzgará por ingenuos.
la singularidad es lo mas abrumador que existe, es como si saltaramos del 2024 al año 3000. no hay un proceso humano en el medio, ese salto lo hará la IA.. puede significar que seamos la ultima generación mortal, nuestros hijos ya podrían saber como ser inmortales. yo creo que el conocimiento va a estar gracias a la IA, pero no las maquinas para llevarlo a cabo, porque los robots están en pañales aun, pero si tenemos todo el conocimiento, solo basta esperar una década para crear la maquina necesaria para lo que fuese con nuestras propias manos.
@@SinfoniaMayor por qué quisiera contribuír ideológicamente a la inmortalidad, si será para nuestra descendencia y no para nosotros? 🤔
Filosóficamente no me conmueve ni un poco. Preferiría que sigan llendose y viniendo, si yo me voy a ir.
Excelente vídeo. Esperando el de los modelos JEPA.
Yo creo que la siguiente pregunta sería, como evaluar por cual modelo me voy dependiendo en la complejidad de la pregunta, teniendo en cuenta que habria que tener un agente clasificador para definir si es una pregunta que puede ser respondida utilizando el razonamiento temprano o tardío y sobre todo evitar el error humano de super poner el razonamiento temprano sobre el tardio de manera automica
Eres un crack!!! Ojalá algún día nos dejes entrevistarte
Está buenísimo,Hacia dónde vamos con esto? Vamos a lo que es la película Walle? Seguir así Carlos 👏👏👏
hey genial esa intro con el micrófono en movimiento
¡Muy buen video!
Sin embargo, me gustaría ver en tu canal más contenido sobre otras opciones. Casi siempre que veo un video tuyo, aparece OpenAI. Hay tecnologías igualmente increíbles como Ollama, los nuevos PCC de Apple, o los modelos locales que, en mi opinión, beneficiarán más a las personas a corto plazo.
¡Un saludo!
Hermano que gran video y que genial tus animaciones, atrapan mucho.
Tu mismos las haces y con que programa?
Felicidades por todo lo que estás logrando 🫶🏻
La IA será más que Chatbots, demasiado interesante la idea planteada en el post de Noam Brown y que gran explicación de esta innovación #DotCSV 👏👏
Great insights. Makes highly technical content very accesible to average users of GPT4. Thanks for the effort.
16:30 Desde hace algún tiempo siempre que generabas una respuesta en chatGPT, ese preguntaba si la respuesta estaba correcta o no era de tu agrado, así nosotros hacíamos de profesores también
Paraaa mi, el mejor divulgador de inteligencia de artificial, vamossss carloss 🎉, siguiendote desde hace 2 años, recien me atrevo a comentar xd
Gracias por el repaso. Y recuerda que no es «entre más X, más Y», sino «cuanto más X, más Y». ;)
Qué pasada de video! Y pedazo de montaje! Felicidades!
Noam Brown ni siquiera estaba en mi radar... Anotado. Carlos y si nos compartes una lista de estas nuevas mentes que estan construyendo sobre lo sentado por Hinton, LeCun, Bengio, Hassabis y Sutskever?.. Gracias, gran video!... "hay camino"
Me encantó tu contenido, se ve un trabajo bien hecho y estudiado, nuevo seguidor.
Muchas gracias por el contenido de tan buena calidad, gracias por tus Neuro-Tokens jajajajaja
Es impresionante como avanza esto
Genio! Gracias por traer la mejor información siempre, nuevo sub!
Excelente video!!! Saludos desde Costa Rica!!!
Como investigador, la verdad es que el futuro pinta muy interesante con esta y otras herramientas revolucionarias que han ido surgiendo. Creo que AlphaFold es ya la prueba fehaciente del potencial de las mismas, y espero que en breve, pueda ver resultados similares también en mi campo..
@dotcsv, podrias explicar el factor creativo en estas cadenas de pensamiento? Una pregunta que me surge es, las opciones valoradas y analizadas en una cadena de pensamiento, estan basadas siempre en un paradigma previo o son estos modelos capaces de generar nuevos outputs mediante la creacion de nuevos fundamentos? Con el ejemplo del profesor, si el profesor solo conoce la fisica neutoniana, nunca llegariamos a la cuantica porque para llegar ahi hay que romper con las leyes anteriores que hasta el momento eran fundacionales... Ojala me este explicando! Gracias!
Gracias por la explicación es muy interesante el tema , espero que este sea una pieza importante para llegar a la hipotético AGI en un futuro no muy lejano.
Wow, Like por buen contenido, un facvor como haces tus graficas y las animaciones SLD
Muy bueno. Oye, ¿con qué haces las animaciones?
Muy interesante! La verdad es que son tiempos ilusionantes. Otra sinergia que me parece apasionante con este tipo de modelos que razonan mejor es la que se abre con los sistemas de verificación automática estilo Lean. Las matemáticas se están empezando a formalizar en este lenguaje de programación funcional que permite validar la corrección de los desarrollos matemáticos.
Dejo un vídeo al respecto:
ua-cam.com/video/e049IoFBnLA/v-deo.html
En ese vídeo Terence Tao (uno de los mejores matemáticos del mundo) habla de como la IA y la informática en general pueden ayudar al avance de las matemáticas. En concreto habla del proyecto Lean y de cómo podría ayudar a un modelo tipo GPT a evitar los errores y alucinaciones, y seguir sólo caminos correctos. Esto de O1 que has contado me recuerda bastante a lo anterior.
Carlos, sería interesante que muestres como ha cambiado tu setup.
Excelente video, saludos desde Colombia.
Es un canal con contenido relacionado con la IA. Ve a ver mejor un canal dedicado a setups. No hay nada peor que cuando comienzan a desvirtuar el contenido y terminan luego haciendo video reacciones.
En el punto en el de razonar durante semanas. Crees que podría correr el riesgo de sobre entrenar un a pregunta? Principalmente igual que se puede sobre entrenar un modelo clasificador podrías pensar demasiado una pregunta y que la respuesta fuera demasiado específica
Excelente trabajo. Muchas Gracias.
Así me gustan los domingos, gracias y suerte en tu viaje a SF
Super interesante, y extremadamente claro. Gracias!!
muy buen video carlos, muchas gracias, saludos desde argentina
gracias por hacer videos cortos. los de dos horas son imposibles
Muy buen contenido. Muchas gracias!
Gracias Dot, muchos saludos desde Colombia
Seria buena idea, probar un o1 y o1 hablando entre si, viendo como fluye su comunicación y ver hasta donde llega.
Buen video carlos! Saludos ❤
Dijiste algo en tus videos sobre la inferencia que hace que no se requiera tanto aumento de la memoria. Me pregunte entonces, se puede enseniar a inferir en la educación primaria? pues esta se apoya en la memorización.
durusimo mi hermano, siempre liderando la ensenanza de la IA saludos desde argentina
recuerdo como en el boom de chatgpt me negaba a usarlo y decia que estaba sobrevalorado, no fue sino hasta el ano pasado que le di una oportunidad y me volo la cabeza y no estoy bromeando si te digo que lo uso a diario cuando tengo que hacer algun calculo en mi dia a dia o preguntas que me sugan e incluso con programacion
Como siempre un gran video, muchas gracias
Despues de ver todo esto, el uso de algoritmos montados sobre LLM parece ser la solución a la fase 2.
El dia que se llegue a la AGI creo nadie va a asombrarse porque tendremos sistemas que nos darán respuestas tan inteligentes que no sabremos distinguir AGI de no-AGI.
Damn , ahora ahora toca hacerla cuantica. Y que pueda hacer el step by step en simultáneo. Tonses. Fua empezamos con la ia cuántica.
Con o1 he llegado a respuestas filosóficas mucho más profundas que con GPT4o, se toca mucho la ciencia, matemáticas y programación en estas nuevas cadenas de pensamiento, pero creo que esas cadenas de pensamiento para respuestas filosóficas también son mucho más profundas, ¿hablaremos en un futuro cercano de la maquina filosófica? O solo piensa el humano?
La gente de Open AI y todo lo que han logrado es realmente lo mejor que hizo la humanidad en la última década.
Realmente muchos incluyéndome, al ver las IA de las otras empresas y ver cómo nos las intentan vender, suena innecesario y que no vale la pena; pero Open AI realmente se nota que se está esforzando por ir mejorando sus modelos, compartir la info e incluso mejorar la vida de toda la humanidad...
¿Podriamos ver pronto captchas que pidan validar razonamientos logicos? O preguntas tipo ordenar el orden correcto de alguna actividad
Esto de la mejor decisión me hace recordar a un capítulo de una serie animada, llamada Pincode en el que los personajes discuten para saber cual es la mejor decisión a todo, y en un error crítico, todo se detiene, estuvieron atrapados en una fracción de segundo, usando su propio razonamiento lograron salvarse, no quiero imaginar el día en el que el planeta se vea comprometido y la respuesta de la IA sea un 42
Tengo una duda, la mejora del razonamiento secuencial, que en cierta forma va reduciendo las posibilidades de respuesta que te puede dar la IA pero mejorando su calidad en simultaneo, no genera a largo plazo el aumento de incapacidad de desarrollo de creatividad de la IA o de espontaneidad?. Es decir, yo como ser humano puedo evaluar distintas formas de hacer algo, razonarlo, pensarlo, hasta debatirlo con pares, pero en cuanto a creatividad o innovación, no siempre las opcciones mas eficicientes o tecnicamente correctas, son las mejores en un inicio. Siempre de una idea no fundamentada pero esencialmente creativa o innovadora se puede trabajar y desarrollar algo unico, que en un principio no era la mejor opccion. A lo que voy es que al incrementar el razonamiento de la IA, se pierden creo yo, estas ideas o respuestas con identidad.
No se si se llega a entender mi planteamiento pero cualquier cosa intento explicarme mejor, Saludos Gaspar. 15:47
Entiendo. Sin embargo creo que no sería tanasi. Recuerda que lo que hace es añadir esas líneas de razonamiento a su entrenamiento. O sea es adicionarlo. No es reemplazarlo. Lo que hace es generar nuevas dimensiones dentro del espaciolatente
El espacio latente viene siendo como la mente de la IA. Ahí en tiene conceptos palabras que están ev varias dimensiones relacionadas. Al entrenarlas tu las acercas o las alejas de otras palabras en varias dimensiones. Si entrenas al modelo con esos datos lo que haces es crear más dimensiones y mejor forma de organizar ese conocimiento
Al fin y al cabo un LLM lo que hace es predecir la siguiente palabra (o token).
Para eso se define un parámetro de temperatura.
Gracias por estos contenidos tan interesantes que nos ofreces