Cómo INSTALAR en tu PC un CHATGPT...¡GRATIS! 🤯 Chatea con la IA y tus DOCUMENTOS

Поділитися
Вставка
  • Опубліковано 13 тра 2024
  • 3 herramientas GRATUITAS para utilizar la IA en local e interactar con tus DOCUMENTOS de un modo FÁCIL, RÁPIDO y GRATIS.
    Recibe toda la INFO de mi ACADEMIA:
    👉 bit.ly/curso_ia_
    SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
    👉 bit.ly/ia-newsletter_
    ---
    ENLACES DEL VIDEO
    👉 lmstudio.ai/
    👉 jan.ai/
    👉 www.nvidia.com/en-us/ai-on-rt...
    ---
    MARCAS DE TIEMPO
    00:00 Intro
    00:34 Crea tu ChatGPT en local
    01:45 LM Studio
    04:39 Jan
    11:52 ChatwithRTX
    ---
    ✅ SUCRÍBETE A MI CANAL: bit.ly/suscribirse_XM​​​​
    📕 Descarga mi guía gratuita para Stable Diffusion:
    👉 snip.ly/guia-IA
    ---
    Instagram: / xavier_mitjana
    Twitter: / xavier_mitjana
    Contacto comercial: xavmit.yt@gmail.com
    *Al realizar una compra a través de cualquiera de estos enlaces de afiliado, recibimos una comisión muy pequeña sin costo adicional para ti. Esto me ayuda a hacer el canal sostenible y seguir ofreciendo contenido de calidad.
    #inteligenciaartificial
  • Наука та технологія

КОМЕНТАРІ • 70

  • @XavierMitjana
    @XavierMitjana  17 днів тому +5

    SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
    👉 bit.ly/ia-newsletter_

  • @juanjesusligero391
    @juanjesusligero391 17 днів тому +9

    Ollama + OpenWebui también tiene RAG por defecto, y los dos son 100% open source, con Llama3 desde el primer día :)

  • @juliocorral
    @juliocorral 11 днів тому +2

    Esta tendencia de poder alimentar modelos con nuestra propia información para temas internos sin el riesgo a que nuestros datos sean utilizados por terceros me parece que va a crecer mucho en breve.

  • @faustoorozcocoy1256
    @faustoorozcocoy1256 17 днів тому +4

    Hola @XavierMitjana gracias por el video, tan solo quiero apuntar que en LMStudio también se puede usar la tarjeta gráfica para ejecutar rápidamente los modelos, para ello a la derecha de la interfaz hay un campo, lo activas y ya.
    Por otra parte, como idea para otro video y relacionado con este asunto de ejecutar modelos en local, una de las principales ventajas es que podemos encontrar modelos sin censura, convendría un video con los principales modelos con esta característica que estén disponibles actualmente. ¡Saludos!

  • @11020tony
    @11020tony 17 днів тому +1

    muy bueno, gracias

  • @pedroguzmanasmat7371
    @pedroguzmanasmat7371 16 днів тому

    excelente aporte.

  • @jneon66
    @jneon66 17 днів тому +3

    @Xavier este modelo de Chat RTX, es porsible agregarles modelos o solo los que trae? Saludos desde Rep Dom :D

  • @akasha6287
    @akasha6287 16 днів тому

    Buenos dias amigo gracias por tus videos, un favor que IA es recomendable para revisar codigo

  • @TICdoc_
    @TICdoc_ 15 днів тому

    ¿Degoteo? ... no puedes negar de donde eres¡, ¡muy buen vídeo¡

  • @IAMktinm.
    @IAMktinm. 16 днів тому

    Muchas gracias 🎉 ChatPDF pienso que es similar a la última opción.

  • @gstvgrc
    @gstvgrc 16 днів тому

    Mañana lo pruebo en un Mac Mini. Pregunta: para qué sirve la integración de LM Studio dentro de Jan?

  • @mr.ti7i86
    @mr.ti7i86 17 днів тому +1

    En los laboratorios de Perplexity ya pueden probarlos. Tienen ambos modelos de Llama 3 🤖

  • @user-bm1bp5el1q
    @user-bm1bp5el1q 17 днів тому +1

    Hola Xavier hay manera de que me ayudaras en capacitar como poder hacer esto conectando a una base de datos y que funcione en modo Local del IA para analisis de datos

  • @PacoGoro
    @PacoGoro 15 днів тому

    Xavier, ¿conoces algún modelo que no esté censurado y que se pueda cargar en local? Muchas gracias por tus excelentes vídeos.

  • @MrMoisheLebowitz
    @MrMoisheLebowitz 16 днів тому

    Gracias x colocar llamita 🇵🇪 ❤

  • @osito1701
    @osito1701 16 днів тому

    Javier, abordas herramientas actuales de IA. ¿Conoces alguna herramienta para diseñar en solidworks? Con los vídeos de youtube, no es posible interactuar cuando surgen dudas.

  • @xavifont7206
    @xavifont7206 6 днів тому

    Y para instalar una API local que de servicio de chatboot por ejemplo a una app propia, como lo harias?

  • @jorgeosmar5429
    @jorgeosmar5429 14 днів тому

    Hasta ahora no encontré otra IA mejor que PI. Hablo con la aplicación como si fuera una persona en cuanto su fluidez. Y en cuanto a contenido es suficiente hasta para nivel profesional. Llama es una tortuga por lo que veo y hay que ingresar Pront? y una tarjeta especial? Gracias me quedo con PI.

  • @canaljoseg0172
    @canaljoseg0172 16 днів тому

    He montado llama 3, le falta pulirse un poco más, tengo otros modelos que son mejores, en los modelos pequeño deben estar orientado a cosas necesaria y no tanta información que no es necesaria. Por eso este modelo pasara por un proceso de reajuste, como hacen con los modelos de automatic111. Para que trabaje muy rápido el modelo debe estar configurado en la gpu al ancho de banda de la tarjeta, y en la parte de tokens que tiene un valor 2048, se divide lo del ancho de la tarjeta entre 64 y la cantidad te indique lo multiplicas por 2048. si tiene mucha memoria lo puedes dividir entre 32 o 16.
    No me justa ollama, mi favorito sigue siendo LM Studio y la interfaz Web-UI de ollama, para modo local.
    Una cosa si es cierta es más preciso el 70b de tokens, que el de 7b, pero como asistente desarrollo es bueno.
    Hay que aprovechar llama 3 en Huggins mientras siga gratis, pero creo debe aún pulirse para ser tan bueno como ChatGPT.
    Ojala que se diseñe server para tener su propios modelos y que sean de 300b de tokens, sería la Ostia !!! ☺

  • @airdany
    @airdany 17 днів тому +10

    Lo único que me disgusta de la novedad de la IA actual, es que sacan casi todo para ordenadores con recursos potentes. Si tienes un ordenador con más de 5 años te dan la espalda. Mi macmini va genial a dia de hoy, maqueto libros mientras navego y retoco imágenes.. holgadamente. Pero LM Studio ya no tiene versión para mi sistema operativo, he de parchear el sistema para intentar cargarle la siguiente (Big Sur) y aun asi no sé si podria usar LM Studio. He descargado JAN que hace lo mismo, y el listado de modelos ya me adieverten en más de la mitad que mi memoria es justa (8 GB Ram) diciendo que iria lento el sistema. He descargado con OLLAMA en mi terminal algunos modelos de IA de 4 gigas y van despacio, descargué uno de 25 gigas e iba tan lento que no lo usé. Xavier! independientemente de LM Studio, JAN o lo que sea... ¿hay alguno que en local te permita analizar PDFs?. Me va genial darle PDFs a alguna IA y decirle sumame todas estas facturas o buscame tal cosa y local seria más privado.

    • @felixcanosa6819
      @felixcanosa6819 17 днів тому +4

      Podrías usar Gpt4ALL o JAN, y usar el nuevo modelo de Microsoft Phi-3 . En mi caso tengo la RAM justa (8GB) y una CPU Intel I7 de cuarta generación y corriendo con el modelo phi-3 me va bastante bien (los mas grandes como mistral 7x8 o los de LLAMA van como hombre picando en piedra).

    • @elsubidonk
      @elsubidonk 15 днів тому

      que modelo de Mac mini tienes? yo tengo un macbook pro del 2012, con una Nvidia de 1gb mas o menos. Te funciona bien? Si no es asi, puedes ponerle windows o linux y te ahorras de subir a Big sur u otra version mas moderna de MacOS.

    • @felixcanosa6819
      @felixcanosa6819 10 днів тому +2

      @@elsubidonk si, tengo un procesador Intel (no mac), usando Gpt4ALL Y con un S.O linux mint, con el modelo que te especifique va muy bien,

    • @elsubidonk
      @elsubidonk 10 днів тому

      @@felixcanosa6819 mmm bueno habra que probar.

  • @cativaman
    @cativaman 16 днів тому

    Hola Xavier. Gracias x compartir info de alto valor.
    Una consulta: Existe algun tipo de Recurso Basado en la Nube que me permita instalar un chat bot basado en IA y configurarlo de manera que "Aprenda ' como responder o sea mantener un diálogo en base a Respuestas y contenidos PreArmados en PDF?
    Aguardo respuesta.
    Gracias.

    • @XavierMitjana
      @XavierMitjana  15 днів тому

      Entiendo que si buscas algo sencillo, necesitarías una herramienta tipo "Chatbase". Luego si tienes conocmientos técnicos puedes armarlo a partir de una API de Google, Microsoft u OpenAI.

  • @javier.vallejos
    @javier.vallejos 13 днів тому

    Esta muy bueno el video, graicas por compartir. No sé si existe alguno que admita cualquier tipo de archivo? (tipo xml, html, jpg, bat, py, xlsx, etc) y si hay alguna que pueda "entrenarse" en algo y que considere los avances que se hayan hecho en el tiempo en relación a cómo abordar ciertas tareas... eso existe en local a día de hoy?

    • @javier.vallejos
      @javier.vallejos 13 днів тому

      Algo así como fine-tuning :D

    • @XavierMitjana
      @XavierMitjana  12 днів тому +1

      Hola Javier, puede realizarse fine tuning de modelos en la nube y luego ejecutarlos en local. Creo que es lo más parecido a lo que necesitas.

    • @javier.vallejos
      @javier.vallejos 12 днів тому

      @@XavierMitjana Podrías hacer un video de cómo sería el proceso? no me imagino haciendo fine-tuning en la nube (idealmente gratis) entregándole archivos, sería ideal conocer el proceso a grandes rasgos y así cada quién en su área pueda hacer sus primeros desarrollos con eso. Saludos y muy buenos videos!

  • @sofokyankyan
    @sofokyankyan 11 днів тому

    El problema de LM Studio y otros programas, que probé cada vez que los actualizan para hacerlo compatibles con modelos mas reciente o otros se petan un modelo anterior, o algunas funciones dejan de funcionar, me gastaría que se pudiera descargar versiones anteriores, por si una actualización no pete el programa.

  • @airdany
    @airdany 17 днів тому

    Que bueno! JAN lleve esa función de "charlar" con PDFs, a ver si doy con un modelo que me funcione... sino seguiremos indagando. Muy bueno este video con ideas.

  • @jjen9595
    @jjen9595 17 днів тому

    Para chatRTX se necesita 8GB VRAM por si acaso, lo probe en mi 3060m de laptop y no funciono 😢

  • @Montes7Fco
    @Montes7Fco 17 днів тому +1

    Xavier una pregunta ¿Hay alternativas mejores aparte de ChatPDF que sea gratuito? Donde se puedan subir archivos más pesados o incluso subir varios PDFs a la vez. Me viene genial para estudiar, ya que puedo resolver cualquier duda en cuestión de segundos. Un saludo!

    • @revo8054
      @revo8054 16 днів тому +1

      Claude ai te permite subir varios pdf

  • @jodter1
    @jodter1 16 днів тому

    ya, pero como puedo usar modelos de ia por python, no hablo de colaide hable de ide para proyectos reales.

  • @JorgeVazquezB
    @JorgeVazquezB 17 днів тому

    Acabo de actualizar Jan y aparece Llama 3 8B Q4

  • @yockmercado
    @yockmercado 16 днів тому

    En qué aplicación haces tus avatares? Tienes vídeo sobre eso?

    • @XavierMitjana
      @XavierMitjana  15 днів тому

      Lo hago con Midjourney+CREF+FaceSwap+Upscale en Krea o Leonardo, tutorial como tal paso a paso no tengo, pero de cada una de las partes están los vídeos en el canal.

  • @alejandroaltamirano9884
    @alejandroaltamirano9884 16 днів тому +1

    Yo ya hice eso, pero sólo está disponible el modelo de 8B de parámetros.
    ¿Todavía no está disponible el mediano?

    • @georyittgorayeb1900
      @georyittgorayeb1900 16 днів тому +1

      parece que para ellos el mediano es el de 70b

    • @alejandroaltamirano9884
      @alejandroaltamirano9884 16 днів тому +1

      @@georyittgorayeb1900 Así es. Se supone que ya está liberado, pero no estaba disponible en LLM studio.

    • @georyittgorayeb1900
      @georyittgorayeb1900 16 днів тому

      @@alejandroaltamirano9884 aaa dle que yo con ollama me descargue el de 70b

  • @UrsulaCallistis
    @UrsulaCallistis 17 днів тому +1

    En caso de que algún día los desarrolladores logren hacer esto de manera fácil en un celular con Android, ojalá puedas hacer un vídeo hablando de eso, ya que todas las novedades de IA las conozco gracias a ti, por ejemplo, Poe lo conocí gracias a ti. Sé que hoy en día ya se pueden instalar este tipo de cosas en Android, pero es muy engorrosos, ya que hay que usar comandos en Termux. Si se pudiera hacer una APK y descargar un modelo y luego cargar a la aplicación el modelo ya descargado (algo así como funcionan los emuladores de consolas de videojuegos) sería más fácil. Aunque no sé qué tan posible sea esto, ya que si todavía no se ha hecho, quizá es porque no se puede. Así sería más fácil, ya que además de no tener que estar poniendo comandos, en caso de que algo te dé error después que te haya funciona y tangas que desinstalar la aplicación, no tendrías que volver a descargar otra vez el modelo y podrías hacerlo todo de manera verdaderamente offline, ya que tendrías el APK y el modelo descargado, creo que con los años esto se va a poder resolver.

    • @jjen9595
      @jjen9595 17 днів тому +1

      Donde vives? En la era de la cavernas? Eso ya se puede, la aplicación se llama "Layla Lite" instale phi 3, pero mi móvil no es muy poderoso así que tardo algo en responde 🤪

    • @UrsulaCallistis
      @UrsulaCallistis 17 днів тому

      @@jjen9595 Oye amigo, gracias por avisar, yo no sé cómo se hace eso ¿Me puedes explicar, por favor?, y gracias por avisar, yo no sabía. Tengo un celular más o menos potente, creo que uno de esos modelos ultra pequeños me podrían correr, pero no tengo computadora, siempre e intentado buscar alguna APK parecida lo que hace LM Studio, pero para Android, ya que LM Studio solo está para computadora. Estar usado Termux no es práctico para mí, sobre todo porque en caso de que tengas que desinstalar Termux por algún motivo, y quieres volver a usar otrs vez el modelo que tenías, vas a necesitar sí o sí una conexión a inter para hacer todo ese proceso otra vez con comandos.

    • @UrsulaCallistis
      @UrsulaCallistis 17 днів тому

      ​@@jjen9595 O sea, ¿se puede interpretar Phi 3 en Layla Lite?

    • @jjen9595
      @jjen9595 17 днів тому

      @@UrsulaCallistis igual a lo que hacen en este video, le puedes preguntar y todo

    • @jjen9595
      @jjen9595 17 днів тому

      @@UrsulaCallistis descarga el modelo, pesa 2 GB y ponlo en una carpeta en tu teléfono y después en Layla pon custom llm y ahí te pregunta dónde está, una vez que le haces click ya no puedes mover el archivo porque creo que se buguea y con eso ya puedes hablar con el chat, es posible ya que phi tiene 3 días de haber salido y está dedicado para teléfonos, aunque la versión de 2gb está bastante recortada así que para pruebas está bien

  • @gustechdurany1878
    @gustechdurany1878 16 днів тому

    estan muy buenos me interesa todo esto

  • @burnoutcycle
    @burnoutcycle 17 днів тому

    No se yo, es más rápido que ChatGPT pero personalmente por ejemplo en scripting de powershell esta un poco flojo

  • @pm9327
    @pm9327 15 днів тому

    ¿Alguien sabe por que ChatGPT4 manda este mensaje? “New responses will use GPT-3.5 until your GPT-4 limit resets” (Las nuevas respuestas utilizarán GPT-3.5 hasta que se restablezca su límite de GPT-4), ¿“límite”?, ¿como que hay límites si es una cuenta pagada?.
    Gracias por sus comentarios.

    • @XavierMitjana
      @XavierMitjana  15 днів тому +2

      Sí, incluso con la versión de pago ChatGPT impone límites de uso. Antes te lo decía explícitamente, 40 mensajes cada 3 horas, ahora es algo un poco más difuso.

    • @pm9327
      @pm9327 15 днів тому

      @@XavierMitjana Pero no debería ser así ¿cierto?, es casi como si el robot me dijera que necesita descansar. Creo que si lo de la AI va a ser así nadie debería temer el que te quiten el empleo 😂😂😂😂😂

  • @manolomaru
    @manolomaru 17 днів тому

    ✨👌😎😮😎👍✨

  • @Smylaw
    @Smylaw 12 днів тому

    Llama 3,le he preguntado cuantos parámetros tiene gpt4 y ha respondido lo que le ha dado la gana, no sé si es mucho de fiar

    • @XavierMitjana
      @XavierMitjana  12 днів тому

      Hola, los modelos de lenguaje su principal uso no debería ser esperar que sean precisos a la hora de devolver información factual, sino sobre todo como herramientas de manipulación de textos y lenguaje en base a conocimiento aportado.

  • @andyaguilar434
    @andyaguilar434 17 днів тому

    Pregunta de novato: que espacio ocuparia en el disco duro de una laptop.

    • @user-sx6nd8zl5k
      @user-sx6nd8zl5k 16 днів тому

      Entre 4 a 5 gb el modelo llama 3 , anque tambien esta el modelo PHI 3 de 2,5 gb y 500mb mas si instalas LM Studio si tu laptopva algo corta en recursos

  • @testerdsdddd
    @testerdsdddd 16 днів тому

    Pues el de RTX es muy tonto, he tratado de hacer que escriba relatos y lo hace fatal, chatgpt3 lo hace mucho mejor.

    • @georyittgorayeb1900
      @georyittgorayeb1900 16 днів тому

      Si pruebas el de 8b claramente el gpt 3.5 esta a otro nivel. El de 70b es más decente pero creo que igualmente está un peldaño más arriba gpt

    • @testerdsdddd
      @testerdsdddd 16 днів тому

      @@georyittgorayeb1900 he instalado todo el pack...

  • @CheatPeru
    @CheatPeru 17 днів тому +1

    le das muchas vueltas, en LM studio tmb tiene la opcion de hacer que el modelo cargue en la GPU sin tener que instalar nada.