Recomendable correr los modelos de IA instalados en la PC con Ollama en una interfaz gráfica como OpenWebUI, Page Assist o Anything LLM, en lugar de hacerlo en la terminal.
Solo veré el video por hay monas chinas😍 :v .tiembla open ia que de open o tiene nada . El deepseek esta genial es muy rápido y mas preciso que chat gpt con deepseek que buen video Manuel , Manuel es mexicano y el mismo no lo no sabía ahora es mecánico es el otro DriveMeca del multiMeca 😂😂 seguro si conoce a Zeus ese si es un verdadero youtuber Linuxeros 🤣🤣🤣 que me encanto en video
Este tipo de modelos razonadores son especializados en código, matemáticas y preguntas de lógica; estos son los temas con los que se deberían hacer las pruebas para obtener resultados más significativos. Buen video de todas maneras, Ollama es un muy buen programa, ligero y fácil de usar :))
@@DriveMeca Bueno ahora - estos días - desde luego que merece la pena Local porque el Servidor está completamente colapsado hasta el punto de que no se puede hacer ninguna consulta con DeepSeek-R1
Gracias por tomarnos en cuenta Manuel 🙋 que sigan los éxitos este 2025!! 🎉🥳🥳
Muchas gracias a ti por apoyar los vídeos y también éxitos por camiones en este año para ti
Saludos,
Buena mi cuate, carros de codigo abierto jeje, buen vídeo (👍)
jejejeje, para los que piden contenido, esta ahí, a una búsqueda de distancia
Saludos,
Recomendable correr los modelos de IA instalados en la PC con Ollama en una interfaz gráfica como OpenWebUI, Page Assist o Anything LLM, en lugar de hacerlo en la terminal.
Hola, si claro, ya lo he mostrado en otros vídeos.
Saludos,
Manuel has probado AnythinLLM, si no lo has hecho ¿Podrías hacer un video corriendolo en docker?
Hola, no recuerdo ese modelo, voy a buscarlo
Saludos,
Gracias Por el tutorial
Con mucho gusto
Saludos
Hola maestro me aconseja u a distro no tan fácil como ubuntu pero no complicada como arch?
Hola, ya haz probado #Fedora
Saludos,
Te recomiendo lo que conozco y me funciona, EndeavourOS Xfce o KDE, corre bien en mi i7 4790 16 GB RAM, es un Arch vitaminado y fácil de gestionar 😊
@ si....
Solo veré el video por hay monas chinas😍 :v .tiembla open ia que de open o tiene nada . El deepseek esta genial es muy rápido y mas preciso que chat gpt con deepseek que buen video Manuel , Manuel es mexicano y el mismo no lo no sabía ahora es mecánico es el otro DriveMeca del multiMeca 😂😂 seguro si conoce a Zeus ese si es un verdadero youtuber Linuxeros 🤣🤣🤣 que me encanto en video
jejeje, siempre veras varias monitas en mi contenido
El meca del multiverso toma tequila y arregla carros, jejeje
Saludos Carlos
Este tipo de modelos razonadores son especializados en código, matemáticas y preguntas de lógica; estos son los temas con los que se deberían hacer las pruebas para obtener resultados más significativos. Buen video de todas maneras, Ollama es un muy buen programa, ligero y fácil de usar :))
Anja, debí pedirle algún fragmento de código
Saludos
Hola Manuel,
Gracias por tu Vídeo
Yo uso DeepSeek desde la web y no sé si es Mejor tenerlo instalado en el Pc para usarlo
Hola Ricardo, al tener el modelo local tienes mayor privacidad básicamente, pero dependes del poder de tu pc
Saludos,
@@DriveMeca Bueno ahora - estos días - desde luego que merece la pena Local porque el Servidor está completamente colapsado hasta el punto de que no se puede hacer ninguna consulta con DeepSeek-R1
@RicardoGarciso es noticia, todos quieren probarla
Esta usando esta pc ? : 6th generation Intel Core M3-6Y30 CPU. 512GB Solid State Drive with 8GB onboard
No, el que uso es el que dice PC streaming en mi tienda.
Saludos,
Yo tengo una maquinita viejita con una Rx 580, el DeepSeek 7,b solo usa el CPU nada de GPU
Hola, por el momento esa gráfica no esta soportada en #Ollama, tienen un tkt solicitándolo
Saludos,
Hola saludos
Saludos, gracias por el apoyo
Ándele wey, don Manuel lleva años engañándonos, es mexicano y bebe mezcal en vez de agua con malicia 😅😅😅
Malaya sea, me descubrieron los chinitos, jeje
Saludos,