Testing out OLLAMA - Your own ChatGPT locally! [ENGLISH SUBTITLES]

Поділитися
Вставка
  • Опубліковано 16 гру 2024

КОМЕНТАРІ • 230

  • @PeladoNerd
    @PeladoNerd  Рік тому +102

    Pequeño detalle, dependiendo el modelo también se le puede hablar en español! Yo lo hice en inglés mas que nada por costumbre, pero prueben en español que funciona 👍

    • @jhonnathanaraujo7146
      @jhonnathanaraujo7146 Рік тому

      Interesante

    • @tonym5857
      @tonym5857 Рік тому

      Excelente video bro..

    • @JhonnyPrz
      @JhonnyPrz Рік тому

      Justo lo iba a preguntar jaja excelente 👍

    • @klapcincuenta
      @klapcincuenta Рік тому

      y pa kubernetes? puedo meter esto en kube>?

    • @thisisnotfuei
      @thisisnotfuei Рік тому

      a mi me funcionó perfectamente hablandole en español, me entendio todo 👌

  • @pablogonzalezrobles4429
    @pablogonzalezrobles4429 Рік тому +118

    Aquí los likes para una segunda parte haciendo fine tunning del modelo

    • @Jimy_JL
      @Jimy_JL 10 місяців тому +1

      Necesitooo

  •  Рік тому +2

    Excelente! ya jugando con el chiche. Gracias por mostrar lo importante: qué hace, cómo lo instalo, cómo lo uso, cómo lo pruebo. Lo que realmente valoro de tus contenidos es que ayuda a pensar en cómo acercarme a las tecnologías: por dónde comenzar, qué buscar, cómo conectar con otras tecnologías que hay (ej aquí con docker) y disparar ideas para investigar y armar cosas. Y lo que más me gusta de todo: lenguaje sencillo y directo. Eso lo hace tan accesible y motiva a querer probarlo y aprender más para construir cosas. Gracias nuevamente por compartir y ser generoso con tus conocimientos!

  • @Juan12101999
    @Juan12101999 Рік тому +12

    Wow Pelado, estaba investigando justo ayer como montar OLLAMA, este vídeo me va a venir genial! Vaya crack

  • @simonmoyajimenez2045
    @simonmoyajimenez2045 Рік тому +2

    Hola Pelao.. felicitaciones! Genial el poder lograr re entrenar un modelo de estos con nuestra propia biblioteca de documentos. Sobre todo para evitar que esta información sea enviada a modelos de compañías como Microsoft o Google que podrían usar la información que se les comparte para el reentrenamiento de sus modelos. Súper si esto fuese lograble de una manera tan sencilla como lo expusiste acá.

    • @maxigorski
      @maxigorski Рік тому

      pregunte esto mas arriba, tenes algún link como para entrenar el modelo, así con mi propia biblioteca. Te agradecería

    • @titinladen
      @titinladen 9 місяців тому

      como lograste entrenar el modelo con tus propios documentos?

  • @guisantesconjamon
    @guisantesconjamon 11 місяців тому

    Muchísimas gracias, no conocía el proyecto. Genial el vídeo. Los pelaos dominarán el mundo sí o sí

  • @normaruizservin6754
    @normaruizservin6754 Рік тому +1

    Buenísimo, muchas gracias ❤
    Lo voy a instalar en Debian que me encanta.

  • @ivackerdev
    @ivackerdev Рік тому +4

    Que buen video Pelado, creo que esta linea de contenido seguira creciendo, gracias por compartir ;)
    Podrias sacarte una segunda parte revisar el fine-tuning

  • @kannder83
    @kannder83 Рік тому +1

    excelente aporte!! estaba buscando algo así con su propia API, muchas gracias!

  • @Humberto-F7
    @Humberto-F7 Рік тому +1

    Buenisimo pelado ... gracias como siempre. 🇺🇾
    Pd. 1 buena la data de usarlo en Spanish directo
    Pd. 2 Ojota con Luggi que tiene la mala costumbre de manotear cosas

  • @EmmanuelValdezvbs
    @EmmanuelValdezvbs Рік тому +10

    Exelente video!! Donde encuentro documentación o la forma de entrenar estos modelos para personalizarlos aun más?

    • @danielomontero
      @danielomontero Рік тому +2

      Eso sería muy util realmente.

    • @alexds9176
      @alexds9176 Рік тому +3

      Like y reply para ver si @PeladoNerd hace caso a este comentario.

    • @JhonnyPrz
      @JhonnyPrz Рік тому +1

      @PeladoNerd

    • @rodrialcazar77
      @rodrialcazar77 11 місяців тому +1

      queremos entrenar (no Gym :) sino la AI

  •  Рік тому

    Grande Pelado... algo nuevo para jugar en el homelab... genial los conocimientos que brindas

  • @peralser
    @peralser Рік тому

    Excelente tu video y tu explicación. Muchas Gracias.

  • @1307jmedina
    @1307jmedina Рік тому

    Wao Pelado , realmente gracias ya estoy aprendiendo mas acerca de ollama, alternativas y posibles usos

  • @maximotejedapozo9335
    @maximotejedapozo9335 Рік тому +1

    Muy bueno, lo instalaré para jugar un poco

  • @francoc4094
    @francoc4094 Рік тому

    Fantástico pelado, gracias por acercar estos recursos!!

  • @CosasCotidianas
    @CosasCotidianas Рік тому

    Gracias pela querido, muchísimas gracias.

  • @Ytukey
    @Ytukey Рік тому +2

    Estaría interesantísimo si se puede hacer un ModelFile que por ejemplo lea los archivos de codigo de un proyecto. Para hacer como un mentor de código !

  • @tekoreimante
    @tekoreimante Рік тому +12

    Excelente video pelado!
    Sabes si se le puede alimentar con informacion para que te ayude? quiero darle la documentacion de algunos frameworks que uso y me de consejos para usarlos mejor

    • @FSH2
      @FSH2 9 місяців тому

      Lo que he visto que se utiliza, por ejemplo en aplicaciones para preguntarle a documentos, es que tú guardas toda la información de la documentación en una base de datos por vectores, haces tu consulta a la base de datos, por ejemplo una pregunta relacionada con la p de JavaScript, le devuelves todos esos vectores que te dio la base de datos a tu modelo y le dices "oye, de acuerdo a la siguiente información responde a la pregunta del usuario", le pasas toda la información que obtuviste de la base de datos y te debería de responder conforme a lo que estaba en la base de datos función ma

  • @Clovhis
    @Clovhis 8 місяців тому

    Hoy montamos Ollama en Kubernetes (AKS) con una compañera de trabajo. Y levantó bien, pudimos hacer preguntas a travez de Json (Port-Forward mediante) porque no tiene UI. Deberías hacerte un video de como montarlo en K8s y como ponerle una interfaz allí tambien.

  • @juanpabloaddeo4197
    @juanpabloaddeo4197 Рік тому

    Tremendo esto Pablo! A analizarlo y hacer PoCs!!!!

  • @luisemiliomorenoduran3288
    @luisemiliomorenoduran3288 Рік тому +1

    Se ve impresionante!, espero la version de Windows para poderlo usar con GPU, excelente contenido

  • @SergioSam
    @SergioSam 5 місяців тому

    Como siempre pela Impecable

  • @chrismarks7495
    @chrismarks7495 Рік тому

    Gran video, muy interesante 🤔. Sigue así crack.

  • @hvardrino
    @hvardrino Рік тому +1

    Buenas, mi servidor corre con ZimaOs, por lo que no puedo correr el comando para descargar los modelos, cómo los puedo descargar se manera manual para despus guardarlo en el directorio al que pertenecen?

  • @guillermogaleanofernandez5497

    ¡Gracias pelado!
    ¡Súper bueno el vídeo y el contenido! ❤❤❤❤✨✨✨👏👏👏🇵🇾🇵🇾

  • @erickbirbe8666
    @erickbirbe8666 Рік тому

    Muy valioso este video!

  • @Sheyk871
    @Sheyk871 Рік тому +10

    Hermoso la sencillez, pero revienta la PC, se necesita mucho computo, y eso que utilizaste llama2, pero no la opción de 70B, que pesa 39 GB....

  • @Cuerviteru
    @Cuerviteru Рік тому

    jajajaja no mms pelado si nintendo ve esto te va a caer la ley, excelente video gracias pelado

  • @inteligenciafutura
    @inteligenciafutura 7 місяців тому

    Lo probé y ollama es potente

  • @gaston.gaitan
    @gaston.gaitan 6 місяців тому

    No man que te paso estas re flaco, felicitaciones por el update de facha

  • @CarlosPedroContreras
    @CarlosPedroContreras Рік тому +10

    2 preguntas
    Es posible usarlo en español?
    Es posible eliminar las restricciones y pedirle cosas que chatgpt no contestaría?

    • @JLCareglio
      @JLCareglio Рік тому

      probe ollama usando llama2 pero hablando en español, responde muy bein pero existen modelos mejores: busca "CliBrAIn llama2", CliBrAIn tiene modelos en español. Como instalarlos para que funcionen con ollama es algo que vere en otro momento.

    • @CarlosPedroContreras
      @CarlosPedroContreras Рік тому +1

      @@Andrew-fw5zq tengo mi dual Xeon chino con 36 núcleos 72 hilos y 128Gb de ram, una 3060 de 12Gb
      Algo podré hacer supongo

    • @CarlosPedroContreras
      @CarlosPedroContreras Рік тому

      @@Andrew-fw5zq son 2 cpus en una placa china dual x99 los refrigero por aire con 2 disipadores snowman de 6 pipes de cobre, también chinos de Aliexpress

    • @hugobracamontesbaltazar
      @hugobracamontesbaltazar Рік тому +2

      ​@@CarlosPedroContrerasPues sí pero tampoco es para tanto en el ámbito de las IA's 😂

    • @elsauto
      @elsauto Рік тому

      @@CarlosPedroContreras te contestan bien y te haces el picanta. Que pancho sos.

  • @garyjo3229
    @garyjo3229 10 місяців тому

    Gracias, muy util, puedo montar UN Modelo de estos para hacer analitica de una Empresa? No hay fuga de datos como saberlo? Y ya hay otro mas potente?

  • @GermAndroidE
    @GermAndroidE 10 місяців тому +1

    Es muy interesante, podrías explicar como podríamos crear una interfaz personalizada para usar Ollama?
    Enos años 90 había una IA que sintetizaba voz en español, tenía un rostro humano que reaccionaba emocionalmente a los contextos, una interfaz retro futurista muy atractiva y recordaba nuestras conversaciones... todo pesaba sólo 720K y se cargaba desde un Floppy en Amiga 500 (1MB de Ram 7,4MHZ CPU)
    Se llamaba "Alan uno" por si quieres ejecutarlo en un emulador de Amiga
    Me gustaría aprender a hacer algo parecido con la potencia de Llama

  • @sarandiboy
    @sarandiboy 3 місяці тому

    Desde el punto de vista “seguridad informática“ Hay alguna forma de saber si toda la data que le damos al modelo solo persista en local y que por atrás no se esté usando para entrenar otro modelos?

  • @RodrigoIAQuintana
    @RodrigoIAQuintana Рік тому

    tengo un error Error response from daemon: error while creating mount source path con el docker compose que proporcionaste :( pero ya instale tambien Ollama en una MAC Help Sensei

  • @roipaz8671
    @roipaz8671 9 місяців тому

    Acabas de convertirte en mi nuevo dios...

  • @tubedeljota
    @tubedeljota 2 місяці тому

    Al grano !!
    excelente bro

  • @encoren1
    @encoren1 Рік тому

    "Tengo el cooler bastante liviano". Sin comentarios

  • @maximosanchez3646
    @maximosanchez3646 Рік тому +2

    buen video pelado!
    una pregunta out of context, que marca son tus remeras?
    saludos

  • @rubensalmontrianza5537
    @rubensalmontrianza5537 Рік тому +1

    esto ya se hizo en el canal de twitch de eldpit!!!!

  • @leodario9041
    @leodario9041 7 місяців тому

    Hay alguna forma de hacer que las instrucciones queden en un color distinto al de las respuestas? ( o usando los codigos de color de bash por ejemplo?) Saludos!

  • @MarianoClavero
    @MarianoClavero 8 місяців тому

    Pelado, te tiro un desafío: Hacete un video de como montar un clúster kubernetes en 2 o mas raspberry y que corran modelos ollama.

  • @jhonnielgarcia6876
    @jhonnielgarcia6876 Рік тому

    Hola discula puede que suene tonto preguntar pero estas apis tienene restriciones o politicas ejemplo chatgpt tiene algunos temeas los cuales no lo habla de manera habierta oh en temas de seguridad tiene restricciones como la de generar script o malware etc

  • @quantumwavves
    @quantumwavves Рік тому +1

    Buen video. Estaría bueno complementar con los consumos de wattage al usar ollama, he estado investigando y no he encontrado alguien que lo haya hecho y sacado costos para tenerlo 24/7 😢

  • @GilVerduzco-d3k
    @GilVerduzco-d3k Місяць тому

    Tengo una duda, tengo una Mac con chip M2 y 24GB de ram, si ejecuto el modelo de manera local con ollama funciona super rápido, pero si lo ejecuto con docker, se comporta super lento, tarda minutos en responder. Use el mismo docker-compose que está en github. Alguien tiene alguna idea de qué peude estar pasando? También ya verifiqué los recursos asignados a la máquina virutal de docker y los puse al tope.

  • @soldarencasa9039
    @soldarencasa9039 11 місяців тому

    yo baje un modelo el instalador bajo pero luego a la hora de descargar me aparecio peticion invalida cored dumper o algo asi no se a q se deve,bueno tengo un dinosaurio de 4 g i procesador 1.5

  • @tomtanque
    @tomtanque 6 місяців тому

    Aparte de la RAM hace falta una potente tarjeta gráfica y que pcu mínimo necesita ?

  • @jonatanalvarez9968
    @jonatanalvarez9968 8 місяців тому +1

    Se le puede conctar con una DB de un sistema X, por ejemplo CRM y que me diga quienes fueron los ultimos 10 clientes o qué cliente es el que mas gastó? O con una base de un Back Office y que me diga cuántas facturas de proveedores se me vencen este mes?

  • @pericote77
    @pericote77 Рік тому

    pregunta como se lleva con la etica por que por ejemplo a chatGPT el de openAI hay cosas que le pregunto y por etica no me las puede responder !!!!

  • @glennluque
    @glennluque 9 місяців тому

    Pregunta, cómo se puede tunear o reajustar el modelo hacia algo específico?

  • @HtkKkx
    @HtkKkx 2 місяці тому

    se necesita estar conectado a internet para que funcione?

  • @royotech
    @royotech 10 місяців тому

    Hola, ¿como hacer fine tuning a Mixtral 7B? Y usar en Olama?

  • @techniciandepartment4088
    @techniciandepartment4088 10 місяців тому

    tiene API requets? necesito hacer peticiones para un proyecto

  • @FreeRangeTesters
    @FreeRangeTesters Рік тому

    Por algún motivo leí todo lo que decía Mario con la voz de Snoop Dog.

  • @emanuelgomez8266
    @emanuelgomez8266 Рік тому

    Tremendo video!

  • @VermutConNaranja
    @VermutConNaranja Місяць тому

    Pela, que onda con las licencias? Puedo usarlo para una app con fines de lucro?

  • @ShaoranHiro
    @ShaoranHiro Рік тому +5

    Estos modelos se pueden entrenar con algun PDF o alguna fuente determinada? me gustaria que solo respondiera sobre la informacion que hay en un archivo.
    Buen video.

    • @abelgarcia9998
      @abelgarcia9998 Рік тому

      Creo que para eso necesitas utilizar algo como LlamaIndex

    • @walterbarrientos9854
      @walterbarrientos9854 9 місяців тому

      Yo también tengo la misma duda. Si sabes algo avísame 😅

  • @esmos2010
    @esmos2010 Рік тому

    que buen vídeo, podrías hacer un vídeo de migraciones de sistemas que ya están muriendo como proxmox o algo parecido

  • @albertgutierrez886
    @albertgutierrez886 Рік тому +2

    Buen video 👏👏
    Tengo una duda. ¿Los modelos solamente funcionan si el input está en inglés?

  • @Jimy_JL
    @Jimy_JL 10 місяців тому +1

    Porque ese mistral solo pesa 4GB? Veo en su pág oficial que pesa mas de 20GB

  • @jorgeluisguizagranobles2165
    @jorgeluisguizagranobles2165 Рік тому +3

    Bueno eres el primero de habla en español que conozco que habla sobre este tema. Yo prefiero programarlo, va muy bien para los chat bots.

    • @javaboy6581
      @javaboy6581 Рік тому +1

      Poco has mirado tu, esto de ollama lleva meses en español tanto en foros como en youtube

    • @jorgeluisguizagranobles2165
      @jorgeluisguizagranobles2165 Рік тому

      @@javaboy6581 miro más en inglés, por eso especifique que de la gente que tengo en español, el ha sido el único. Gracias por leer.

    • @jorgeluisguizagranobles2165
      @jorgeluisguizagranobles2165 Рік тому +1

      @@Andrew-fw5zq Dije que prefiero programar el chatbot con ese modelo, ya que el muestra usar es un contenedor. Gracias por leer.

    • @jorgeluisguizagranobles2165
      @jorgeluisguizagranobles2165 Рік тому

      @@Andrew-fw5zq hahaha fantasma vos y ve a un curso de lectura, te harías un favor.

    • @jorgeluisguizagranobles2165
      @jorgeluisguizagranobles2165 Рік тому

      @@Andrew-fw5zq Como vas a entender que prefiero programar un modelo de IA yo solo. Solo eres una persona que busca pelear y si continuo diciéndote que ve a un curso de compresión lectora, sería tu mayor inversión a futuro.
      Tambien me resentí ya que eres un payaso, un notas y dev que se cree la ultima Coca-Cola.

  • @MatiasFedericoWolters
    @MatiasFedericoWolters 8 місяців тому

    Que gran video, una consulta: alguien me puede decir que extension es el Modelfile? por favor

  • @fredyorozco162
    @fredyorozco162 Рік тому +2

    Recomiendo revisrar langchain y base de datos vectoriales

  • @JhonnyPrz
    @JhonnyPrz Рік тому

    Y estos modelos custom se pueden usar también en el chatbot-ollama? O aún no hay soporte para eso, al menos el custom que cree no me aparece en la lista de la interfaz visual, solo los modelos que instale.

  • @RagnaLockerAdmin
    @RagnaLockerAdmin 7 місяців тому

    Hola me gusto tu video, tengo una pregunta entonces haci como haces en el video, que el modelo simula ser mario puede ser cualquier personaje?

    • @PeladoNerd
      @PeladoNerd  7 місяців тому

      Si claro, lo que quieras

  • @dantepatetta5396
    @dantepatetta5396 10 місяців тому

    Pelado, excelente video! Tengo la duda de cuál es el grado de seguridad si uso Ollama para trabajar con mis archivos confidenciales. Es Ollama apto para hacer uso de mi propia AI con informacion confidencial y que dicha informacion solo forme parte de mi historial y no que la suba a la nube de la AI?? Gracias

  • @adrianocorvo1979
    @adrianocorvo1979 Рік тому

    Este modelo off line tem alguma restrição de políticas. pois trabalho com nicho adulto e tenho muita dificuldade para trabalhar.

  • @emerson.dvlmt.g
    @emerson.dvlmt.g Рік тому

    Gracias por este video. Se podrán entrenar o se usan ya como vienen?

  • @AlphariusOmegonREAL
    @AlphariusOmegonREAL Рік тому

    Esa IA se podría conectar con stable Diffusion, para automatizar la generación de imágenes?

  • @frederick8309
    @frederick8309 Місяць тому

    me encantas pelau nerd 😉

  • @OlvisQuintana
    @OlvisQuintana Рік тому

    Mi bro, una consulta, como podemos modificar el reponse de esa api que levanta ollama ? o es uno predeterminado como tal ?

  • @hypemusic8015
    @hypemusic8015 6 місяців тому

    Buenisimo tu video, consegui hacerlo funcionar y ahora si quisiera añadirle un certificado ssl, que lineas tengo que añadir al .yml?

  • @davidpratr
    @davidpratr Рік тому

    Se podría correr la misma demo con docker o K8s en una GPU? Se supone que es lo que hace OpenAI en su backend, no?

  • @EduardoCardosoMartin
    @EduardoCardosoMartin Рік тому

    !!!Excelente video, una consulta se podria montar ese docker y correr el servicio en Openshift?

  • @brunoe6604
    @brunoe6604 10 місяців тому

    Buenas! Primer video tuyo que veo. Me interesé por Ollama. Queria saber si puedo usar Ollama para mi propio negocio. Soy desarrollador, y tengo conocimiento tecnico en programación. Quería saber si puedo entrenar a Ollama con el conocimiento de mi negocio, y así ofrecerlo como parte de mis servicios web (por ejemplo, en un e-commerce). Gracias!

  • @dr.ignacioglez.9677
    @dr.ignacioglez.9677 Рік тому

    Se puede configurar para que use la GPU de NVIDIA, o solo funciona con la CPU??

  • @rinconfede
    @rinconfede Рік тому

    Buen video !
    No me quedo claro el tema del consumo de ram... que pasaria si tengo una pc que tiene 8 de ram, y simultaneamente tengo abierto cosas pesadas como el android studio, postman, 2 procesos simultaneos, y el buscaminas... Como reaccionaria la pc?

  • @a5ad0r
    @a5ad0r Рік тому

    Genio Peladoooo

  • @luvidev
    @luvidev Рік тому

    me mata el final de tus videos!

  • @MG-bm5oj
    @MG-bm5oj Рік тому

    Como va llama para preguntas serias sobre programación, librerías etc?

  • @christianvillarreal9986
    @christianvillarreal9986 Рік тому

    Estaria genial que intentes realizar un asistente virtual al estilo de el de la película why him, que es un asistente que hace bromas se ríe y es sarcástica y mal sonante

  • @RafaelJoseGarciaSuarez
    @RafaelJoseGarciaSuarez Рік тому

    Gracias por compartir amigo, una consulta se necesita de una GPU para hacer la inferencia?

  • @trucosfreak
    @trucosfreak Рік тому

    bknnnnnnnn gracias pelaoooo!

  •  Рік тому

    entiendo que el modelo incluye los datos, pero se puede ingest nuevos datos?

  •  Рік тому

    Solo por curiosidad preguntale utilizando Mistral o Llama2 en que mundiales participo Maradona. En ambos modelos de movida te dice que Argentina no gano el mundial de 1986.

    • @josebecerra7719
      @josebecerra7719 Рік тому

      Realmente no piensa. Es un sistema estadístico por proximidad de palabras relacionadas unas con otras.

  • @SoloBSD
    @SoloBSD Рік тому +2

    Los modelos también hablan español Pelade!

  • @piratnet1
    @piratnet1 Рік тому

    En docker se siente que no corre al 100%, se demora bastante.
    Mi pc:
    Procesador 12th Gen Intel(R) Core(TM) i7-12700KF, 3610 Mhz, 12 procesadores principales, 20 procesadores lógicos
    Memoria física instalada (RAM) 64,0 GB
    Placa de video GTX 3080

  • @paulsan2370
    @paulsan2370 Рік тому

    Habria alguna manera de vincular la base de datos para que responde en relacion a eso

    • @josebecerra7719
      @josebecerra7719 Рік тому

      Tienes q entrenarlo. Aquí están usándolo con modelos previamente entrenados.

  • @xmagcx1
    @xmagcx1 Рік тому

    excelente contenido junto con los sad servers

  • @guisantesconjamon
    @guisantesconjamon 11 місяців тому

    Igual lo ha dicho en el vídeo, pero me pregunto si se puede uno montar un servidor local al que se le hagan llamadas desde otro ordenador. Si es así igual se puede usar para tener un asistente de creación y corrección de código en local sin tener que pagar por ap de chatgpt. Si estoy diciendo alguna chorrada corríjanme.

  • @EliasDanielEmanuele
    @EliasDanielEmanuele Рік тому

    Probe el modelo codellama con docker pero va muy muy lento, tarda muchisimo en generar la respuesta. tengo un i7 11 generación, 16gb de ram. Como sistema operativa estoy usando archlinux. sera que estoy haciendo algo mal. jeje.. 🙃

    • @gabriegonzalezcifuentes2561
      @gabriegonzalezcifuentes2561 11 місяців тому

      Es porque cuando lo tienes en docker este no usa la totalidad de recursos de tu sistema. Fíjate en la config de docker para ver que restricciones de uso de máquina tiene tu docker. Ajústalo y verás que va mejor.

  • @juanchotc17
    @juanchotc17 10 місяців тому

    Dale es gracioso el chiste de los átomos.

  • @jhonnybecerradelgado7781
    @jhonnybecerradelgado7781 7 місяців тому

    Te digo que ya probé llama3, llamacode, mistral y otros modelos que bajé. pero la pc se pone lentísima, osea no creo que sea una alternativa viable. tengo una asus de 32 Gg de RAM. core i9 ultimas. y aun así la veo que sufre y me responde con demora. no quiero ni pensar como será en una laptop de rendimiento standard. prefiero pagar mi copilot y listo me hace mas rapido todo

  • @davbaster
    @davbaster Рік тому

    Me gustó bastante, será que se puede entrenar con nuestros datos ?

  • @katiasistemas3
    @katiasistemas3 Рік тому

    Siempre que envio algo en el front me da el error:
    Application error: a client-side exception has occurred (see the browser console for more information).

    • @gabriegonzalezcifuentes2561
      @gabriegonzalezcifuentes2561 11 місяців тому

      Te falta correr el pull del modelo, al no tener ninguno, te encuentras con este error

  • @leodario9041
    @leodario9041 Рік тому

    no es necesario ejecutar el comando "ollama serve" para que funcione? y como hiciste para que te responda con emojis? Saludos!

  • @tecomAGS
    @tecomAGS Рік тому

    excelente video, cuando quieres varios modelos, requieres varios volumenes?

  • @pabloandrescaceresserrano263
    @pabloandrescaceresserrano263 6 місяців тому +1

    O sea, es lo mismo que LM Studio?

  • @bramdonmurillo3757
    @bramdonmurillo3757 Рік тому

    Que crack, será que esta explosión de LLM impacta mucho el área de SRE? Además de chatbots? 🤔