DeepSeek Coder V2: La Mejor Alternativa y ¡El MEJOR COPILOTO LOCAL GRATUITO! | Tutorial
Вставка
- Опубліковано 15 жов 2024
- 🚀 ¡REVOLUCIÓN EN LA PROGRAMACIÓN! DeepSeek Coder 2 está aquí para cambiar el juego 🎮
¿Cansado de pagar fortunas por asistentes de IA? 💸 ¡Descubre cómo DeepSeek Coder 2 te da el poder de GPT-4 a una fracción del costo! 😱
En este video, te revelaremos:
✅ Cómo instalar y usar DeepSeek Coder 2 GRATIS en tu PC
✅ Por qué es 100 VECES más barato que GPT-4, Claude 3 y Gemini 1.5 Pro
✅ Cómo convertirlo en tu propio GitHub Copilot personal
✅ Trucos para maximizar su potencial en Visual Studio Code
🔥 BONUS: Te mostramos cómo usar su API por centavos y generar millones de tokens
No te pierdas la oportunidad de elevar tu coding al siguiente nivel. Este video podría ahorrarte CIENTOS de dólares en suscripciones a IA. 💪💻
🔧 Enlaces útiles:
📌 Video comparativa con otros modelos: • ¡DeepSeek Coder 2: El ...
📌 Sitio web oficial de ollama: ollama.com/
📌 Sitio web oficial de DeepSeek: platform.deeps...
📌 EvalPlus: evalplus.githu...
📌 Video para obtener API de Codestral GRATIS: • Codestral (22B): ¡Ya e...
👍 Dale like, comparte y suscríbete a Conciencia Artificial para más contenido increíble sobre lo último en tecnología e inteligencia artificial.
🔔 ¡Activa la campanita para no perderte ningún video nuevo!
#programacion #github #githubcopilot #IA #codemasters #Gratis #OpenSource #ai #ias #DesarrolloDeSoftware #TechTips #vscode #Ollama #Groq #Continue #deepseek #tutorial #inteligenciaartificial #fyp #code #llm #copilot
Ya está disponible el autocompletado de código mediante el API oficial de DeepSeek-Coder-V2 + Continue. Solo tengan cuidado ya que con el autocompletado se les pueden acabar muy rápidamente los tokens disponibles.
- Captura de pantalla del archivo de config.json: shrtm.nu/TqSbnIT
- Ejemplo de cómo debe quedar la parte en el archivo de config.json:
{
"models": [],
"tabAutocompleteOptions": {
"template": "Please teach me what I should write in the `hole` tag, but without any further explanation and code backticks, i.e., as if you are directly outputting to a code editor. It can be codes or comments or strings. Don't provide existing & repetitive codes. If the provided prefix and suffix contain incomplete code and statement, your response should be able to be directly concatenated to the provided prefix and suffix. Also note that I may tell you what I'd like to write inside comments.
{{{prefix}}}{{{suffix}}}
Please be aware of the environment the hole is placed, e.g., inside strings or comments or code blocks, and please don't wrap your response in ```. You should always provide non-empty output.
",
"useCache": true,
"maxPromptTokens": 2048
},
"tabAutocompleteModel": {
"title": "DeepSeek-V2",
"model": "deepseek-coder",
"apiKey": "[YOUR_API]",
"contextLength": 8192,
"apiBase": "api.deepseek.com",
"completionOptions": {
"maxTokens": 4096,
"temperature": 0,
"topP": 1,
"presencePenalty": 0,
"frequencyPenalty": 0
},
"provider": "openai",
"useLegacyCompletionsEndpoint": false
}
}
Dios mío!! por que este canal no tiene mas suscriptores, te agradezco por ese información.
Más del 88% de personas que ven los videos no están suscritos 🥲 pero espero poco a poco vayan suscribiéndose, me ayudarían muchísimo
Igual muchas gracias por ese comentario hermano, me motivas a seguir creando y mejorando el contenido 💪
Me encanta este canal! Seguid así!
Muchísimas gracias por comentar y por apoyar! Tus comentarios me motivan a seguir creando contenido de calidad 👋
Que buenos vídeos, quizá lo compré cuando codestral dejé de estar gratis
Es una excelente opción la verdad, muy potente y económica. Quizá para la fecha en que termine la prueba de Codestral tengamos otro(s) modelos más potentes jaja, todo va avanzando muy rápido.
¡Gracias por comentar y apoyar el canal!
Hola muchas gracias por el contenido, tengo unas dudas.
Quisiera saber si estas herramientas de auto completado tienen acceso a todo el proyecto, o sea que si me responde en base a las funciones que ya tengo creadas en todo mi proyecto ya sea hooks, estilos, etc
por que seria genial para mi que al hacer una pregunta, esto tenga el contexto de mi app, de que puede usar y la forma de codificar en ese proyecto
por otro lado ya que veo que tienes varios videos de como tener un copilot gratis, cual podrias recomendar para usar de manera gratuita? es que veo varias opciones pero no se cual seria hasta ahora el mas adecuado y me gustaria una recomendacion, soy desarrollador web Frontend con buen conocimiento en backend entonces me gustaria algo que se acople a esto
De nuevo muchas gracias por los videos, son de mucha ayuda y agradezco tu respuesta ❤
Hola disculpa por la demora, sobre pasarle contexto si es posible, la extensión de Continue te permite anexar a la solicitud los archivos que necesitas para mejorar la respuesta. Solo que para enviarle todo el código de tu proyecto quizá se vuelva un poco complicado si son demasiados archivos o de plano imposible por la limitante que tendrá cada modelo de su ventana de contexto. Pero si puedes enviarle los archivos más importantes o donde esté la mayor parte de la lógica para que el modelo "entienda" mejor lo que buscas.
Sobre que utilizar, depende si quieres usarlo de forma local o mediante API. Pero te doy algunos consejos, si quieres local puedes optar por modelos
Local:
- CodeQwen de 7B (en pruebas ha tenido un excelente rendimiento para la codificación)
- Qwen 2 de 7B, también hay opciones más pequeñas de 0.5B y 1.5B
- StarCoder 2 de 3B o 7B, este ha sido más especializado para el autocompletado.
Si tu PC te lo permite por la cuestión de hardware puedes utilizar:
- DeepSeek-Coder-V2 con 16B
- Codestral con 22B.
API:
- Codestral (API gratuita hasta el 01 de agosto del 2024), bueno para el autocompletado de código
- Deepseek-coder-v2 de 236B mediante el API oficial, resulta muy económica 7.14M tokens por 2 dólares.
- Gemini 1.5 Pro o 1.5 Flash de forma gratuita mediante AI Studio. Con ciertas limitaciones, pero es una excelente opción gratuita.
- Llama 3 70B mediante el uso gratuito con Groq
- Cohere, tiene uso gratuito y limitado de su modelo, aún me falta probarlo más, pero es otra alternativa
¡Muchas gracias a ti por comentar y apoyar el contenido!
Hola , buenas tardes . En mi caso tengo un i5 12600k con 32 de ram , pero no poseo ninguna GPU . ¿En ese caso si me serviría o tendría que ocupar alguna GPU y cuál sería la más básica?
De acuerdo a la información oficial de Ollama, si debe funcionarte bastante bien el modelo de forma local, ya que pide un aproximado de 20gb de RAM para correr el modelo. Instálalo y cuéntanos que tal funciona en tu equipo, igual tus comentarios nos pueden ayudar a muchos a ver el rendimiento en un equipo como el tuyo. ¡Saludos!
Hola gracias por el video, tengo una duda, cada vez que uso el modelo veo que se usa el CPU al 100% , pero veo que mi tarjeta de video nvidia (Quadro t1000) apenas se esta usando hay alguna manera de que se use el GPU y no el cpu?
Tambien queria decirte que me encanta tu contenido!
Revisa que estén instalados el soporte para los nvidia cuda cores.
Hola hermano, disculpa por responder hasta ahora, me comuniqué con el equipo de Ollama y me comentaron que eso sucede a veces porque el modelo requiere mucha más potencia, y la GPU se queda algo corta, por lo que se divide el trabajo. Te comparto el mensaje traducido: "Sí, es muy posible. Suele ocurrir cuando el modelo es demasiado grande para caber en la memoria de la tarjeta gráfica (VRAM), y necesita ser compartido con la memoria del sistema. "
¡Muchas gracias por comentar y apoyar el contenido!
Muchas gracias por compartir 😄, una consulta hay forma de configurar por mientras deepseek como chat mediante API y otro modelo como codemistral para el autocompletado? o copilot para el autocompletado? es posible ello disculpa la consulta
Si, casi al final del video mencionó lo que comentas, con Continue podemos dejar el chat mediante su API como mostramos en el video, y para el autocompletado de código, podemos utilizar de forma gratuita Codestral (mediante su API también), si quieres aprender a obtener el API de Codestral te comparto un video donde enseñamos cómo obtener acceso gratuito (el API estará gratis hasta el 01/Agosto/2024): ua-cam.com/video/KFEVDOXOQpE/v-deo.htmlsi=MdmGSShLI1T_G2P4
Espero te sirve a esta información, y cualquier duda o comentario aquí estoy al pendiente. Muchas gracias por comentar!
@@Conciencia_Artificial muchas gracias iré a ver el video 😄
Hola, excelente video, tengo un Asus Vivobook AMD Ryzen 7 7730U con 16GB RAM y 8 nucleos de procesador, es posible usar el modelo con mi hardware actaul?
Muchas gracias por el apoyo!
Conforme a tu pregunta, realicé una prueba en un equipo con Ryzen 5 5600g y 16gb de RAM (sin GPU) y si logró ejecutarlo bien. Por lo que muy probablemente también pueda funcionar en tu equipo.
@@Conciencia_Artificial Muchas gracias por la respuesta, saludos desde chile 💯
Honestamente, he estado usando Copilot durante el último año y en comparación con la ejecución local de este modelo, utilizando el stack tecnologico que muestras en el video, la experiencia ha sido hasta el momento bastante pobre. Debo decir que cuento con un ordenador de escritorio con 32 GB de RAM y un i5 de 11th generacion. No tengo Placa gráfica. Tal vez con una gráfica pueda mejorar. Pero así como lo estoy usando, se traba bastante, las recomendaciones del autocomplete tardan una eternidad en llegar. La verdad que tenía mucha espectativa, porque el video es muy bueno, y el benchmark también. Pero la experiencia ha sido mala la verdad.
Muchas gracias por compartir estos avances en técnologia y darnos la oportunidad de probar!
Hola, muchas gracias por compartir tu experiencia e información de tu equipo, aunque según la poca información compartida, si debería funcionarte mejor el rendimiento del modelo de forma local. Yo tengo un ryzen 7 y 32gb de ram, pero si cuento con una gpu 4070, quizá eso me está haciendo la diferencia también, ya que si he obtenido un buen rendimiento con la mayoría de modelos presentados en el canal.
Quizá otra opción que pudiera servirte bastante bien, es que utilices en modo de chat un modelo mediante API gratuito como Gemini 1.5 pro/flash, Llama 3 70B con Groq, Codestral (gratis hasta el 1 de agosto del 2024), o pagar el API que es demasiado barato de DeepSeek Coder 2 (para chat te puede durar meses con solo 2 dólares).
Y para autocompletado de forma local optar por modelos más pequeños como CodeQwen (que tiene un rendimiento excelente), Qwen 2 de 0.5B, 1.5B o la versión de 7B. El nuevo modelo de Gemma 2 de google con 9B. Llama 3 8B. Podrías intentar con diferentes opciones, y probar su rendimiento a ver cuál te convence más.
¡Gracias por comentar y apoyar el contenido!
tengo una rtx 3070 y 32gb de ram, el consumo de ram es de acuerdo a la consulta,no?🤔
Mm pues desde un simple hola utilizará la ram necesaria para generar la respuesta, en peticiones donde genera mucho más texto o código, utilizará la misma ram pero por más tiempo hasta finalizar.
Yo tengo un equipo parecido al tuyo, solo que con una 4070, y jala bastante bien con la pura ram 👌. Igual probé en un equipo sin gpu y 16gb de ram y también funcionó bien, un poco más lento pero bastante decente.
excelente contenido, gracias 👍
Muchas gracias! Espero te haya resultado útil
como anda esa IA vs codeqwen ?
La verdad faltaría analizar más pruebas que poco a poco vayan saliendo, pero me parece que en este punto ambas se posicionan como excelentes alternativas para codificación. En caso de encontrar benchmarks oficiales te los compartiré por aquí.
excelente contenido🎉
Muchas gracias 😁
Hola, he descargado codeGPT, y he instalado codeollama, tengo una pregunta como puedo configurar codeGPT para que pueda resivir los prompts en español y funcionar de forma correcta?
Primero una disculpa por la demora, en segundo estuve investigando al respecto, pero no encontré información sobre como configurar para que siempre responda en español, seguiré revisando y en caso de encontrar te la comparto.
Lo que puedes hacer por el momento es que, si te responde en inglés, envíale el prompt: "Responde en español" o "Traduce a español" para que vuelva a lanzar toda la respuesta, pero traducida.
¡Gracias por comentar y apoyar el contenido!
Para usar la api tambien es necesario descargar ollama?
Si solo quieres usar el API no es necesario, pero para el autocompletado de código si te recomiendo que utilices algún modelo pequeño con ollama, ya que puede gastar demasiados tokens. ¡Gracias por comentar!
Que son Los parámetros de la IA?
Los parámetros en un modelo de lenguaje (LLM) como ChatGPT son como los "conocimientos" que el modelo aprende durante su entrenamiento. Cuando ves números como 6B, 16B o 70B, se refieren a cuántos miles de millones de estos "conocimientos" tiene el modelo.
Más parámetros generalmente significa que el modelo puede entender y generar texto más complejo, pero también requiere más poder de computación. Es como tener más neuronas en un cerebro artificial - permite pensamientos más sofisticados, pero consume más energía.
Sin embargo, tener más parámetros no siempre garantiza mejores resultados, al igual que un cerebro más grande no siempre significa ser más inteligente.
Mi maquina es un ryzen 5600G + GTX 1660Super con 16GB de ram lastima que no estoy dentro del rango de la ram
Si debe funcionar, acabo de probar en un equipo con el mismo procesador y 16 gb de ram, y sin gpu y funciona bastante bien 👌
@@Conciencia_Artificial ok Gracias man tocara probar entonces .. 🫡
Quisiera saber cuales son los requisitos minimos de una pc para que funcione la version lite de deepseek poooooooooooorfaaaaaa😢😢😢😢😊 y gracias por el vídeo
Como tal no hay información oficial que especifique esto, pero acabo de probar en un pc con 16 GB de RAM, y un Ryzen 5 5600g (sin GPU solo gráficos integrados) y funcionó bastante bien la generación de respuestas y código. Ollama igual menciona que mínimo necesitarías entre 18-20 GB de RAM. Pero con la prueba que realicé que fue menos si funcionó. ¿Cuáles son las características de tu equipo?
Que máquina tienes brother?
Tengo un ryzen 7 5700x, 32gb de ram y una rtx 4070 12gb de vram. Gracias por comentar! 👋
@@Conciencia_Artificial Gracias por responderme brother, yo tengo lo mismo solo que a diferencia tuya tengo una 3080 y no me funcionó el modelo :(
Por otro lado haz pensado hacer una guía del uso de RAG para el entrenamiento de modelos locales de IA?
@@Caigaencuentapero intentaste instalar el modelo de 16B o el grande de 236B? Porque el de 16 si debe ejecutarse correctamente en tu equipo, probé este modelo en una computadora con 16gb de ram y un ryzen 5 5600g (sin gpu) y funcionó bien.
El modelo grande ni con la 4090 te va a funcionar, es demasiado pesado, para es es mejor utilizarlo a través de un servicio mediante su API
Y sobre enseñar sobre los otros temas si lo tengo pensando hacer, nada más termino de lanzar algunos videos que tengo pendientes y empiezo con esos temas. Muchas por la recomendaría!
@@Conciencia_Artificial Acabo de descubrir tu canal super interesante. Tengo un i5 de 11 generacion y 48GB de RAM pero una grafica muy antigua una 270x. No crees que me funcione el modelo grande? Tambien tengo un m2 a 7200MBs, solo me falla un poco la gráfico por que no juego y no me ha hecho falta actualizarla
Estaría buen un video de comparativas de lo que se podría hacer con un modelo y otro
buenisimo
muchas gracias por comentar! Y espero te haya resultado muy útil esta información. ¡Saludos!
@@Conciencia_Artificial si, realmente muy útil y videos de muy buena calidad en producción e información q es lo mas importante. seguiré viendo los otros, quiero un copilot para programar pero que sea en linea ya q mi maquina no es tan poderosa como para aguantar una IA local.
Hay otro mejor a este día?
Gracias
Hay excelentes alternativas locales como Llama 3.1 8b, Gemma 2 2b/9b/27b, Mistral-nemo 12b, si puedes probar este último hazlo, comentan que se están obteniendo muy buenos resultados, solo considera las especificaciones mínimas, por ejemplo, para mistral-nemo se necesita mínimo el doble de RAM, o sea 24 gb de ram para que su funcionamiento sea eficiente.
@@Conciencia_Artificial muchas gracias