Tamanho de fonte
Alto contraste
Altura de linha
Entrar Cadastrar
Deepseek no VS Code

DeepSeek no VS Code: como usar a IA offline de graça

Avatar de Heitor Tasso Heitor Tasso
7 minutos de leitura 22/02/2025 • Atualizado 18 horas atrás 5xp

Se você busca uma forma eficiente e privada de desenvolver código com inteligência artificial, o DeepSeek no VS Code pode ser a solução ideal. Diferentemente de outras ferramentas de IA, ele permite gerar código e otimizar seu fluxo de trabalho completamente offline, garantindo mais segurança e privacidade.

Neste artigo, você aprenderá a instalar e configurar o DeepSeek no Visual Studio Code, explorando suas funcionalidades para aprimorar a produtividade no desenvolvimento com Python.

O que é o DeepSeek?

O DeepSeek é um modelo de linguagem de grande escala (LLM) criado na China, projetado para processamento de linguagem natural e geração de código. Lançado em 2023, ele foi treinado com um extenso conjunto de dados de código-fonte e documentação técnica, tornando-se altamente eficiente para auxiliar em tarefas de programação.

A DeepSeek AI, empresa responsável pelo modelo, busca tornar a inteligência artificial mais acessível e eficiente. O DeepSeek-R1, primeira versão otimizada para uso local, permite que desenvolvedores utilizem IA sem depender da nuvem.

Para saber mais sobre o que é o DeepSeek e como ele funciona, recomendamos a leitura do texto abaixo:

Vantagens de usar o DeepSeek no VS Code

  • Privacidade: funciona 100% offline, seu código nunca sai do seu computador;
  • Gratuidade: sem custos mensais ou anuais;
  • Performance: resultados comparáveis a soluções pagas;
  • Integração: perfeita harmonia com o VS Code.

Pré-requisitos para utilizar o DeepSeek no VS Code

Antes de começar a instalação, certifique-se de que seu sistema atende aos requisitos mínimos:

  • Sistema operacional: Windows 10/11, macOS 10.15+ ou Linux;
  • Memória RAM: mínimo 8GB (16GB recomendado);
  • Espaço em disco: 2GB livres para o modelo mais leve;
  • Python: versão 3.8 ou superior;
  • VS Code: instalado.

Passo a passo: instalando o Ollama, o DeepSeek-R1 e a extensão do VS Code

Para começar a usar o DeepSeek, precisamos configurar três componentes principais: o Ollama (que gerencia os modelos de IA), o modelo DeepSeek-R1 propriamente dito e a extensão do VS Code. O processo é simples e direto, mas deve ser feito na ordem correta para garantir o funcionamento adequado.Fonte: site Ollama

1. Instalando Ollama

Página de download do Ollama
Fonte: site Ollama

Windows:

  1. Acesse o site oficial da Ollama;
  2. Baixe e execute o instalador .exe;
  3. Siga as instruções do assistente;
  4. Abra o terminal e execute: `ollama –version`.

macOS:

  1. Baixe o instalador .dmg do site oficial;
  2. Execute e siga as instruções;
  3. Verifique a instalação: `ollama –version`.

Linux:

  1. Abra o terminal e execute:
  2. `curl -fsSL https://ollama.com/install.sh | sh`
  3. Verifique a instalação: `ollama –version`.
Comando no cmd do Windows para ver versão do Ollama

2. Instalando o modelo DeepSeek

O DeepSeek-R1 oferece diferentes variações para atender a diferentes necessidades:

  • 1.5b (1.1GB) – Ideal para laptops e máquinas com recursos limitados;
  • 7b (4.7GB) – Bom equilíbrio entre performance e recursos;
  • 8b (4.9GB) – Similar ao 7b com melhorias específicas;
  • 14b (9.0GB) – Recomendado para máquinas mais potentes;
  • 32b (20GB) – Para workstations;
  • 70b (43GB) – Para servidores dedicados;
  • 671b (404GB) – Uso empresarial.

Para iniciantes, recomendamos começar com o modelo 1.5b ou 7b:

  1. Abra o terminal;
  2. Execute o comando: `ollama pull deepseek-r1` ou use o comando de acordo com o modelo que você quer no site do Ollama;
  3. Aguarde o download (pode levar alguns minutos);
  4. Execute o comando: `/bye` para sair do Ollama.

3. Configurando o VS Code

  1. Abra o VS Code;
  2. Instale a extensão “Cody: AI Code Assistant”;
  3. Reinicie o VS Code.

Como usar o DeepSeek no VS Code

Após concluir a instalação do Ollama, do modelo DeepSeek e da extensão Cody, você está pronto para começar a usar a ferramenta. Então vamos ver como aproveitar ao máximo seus recursos.

Iniciando o serviço Ollama

Antes de começar a usar o DeepSeek, certifique-se de que o serviço Ollama está rodando:

  • Abra um terminal;
  • Execute o comando: `ollama serve`;
  • Mantenha este terminal aberto enquanto estiver usando o DeepSeek.

NOTA: se der o erro `listen tcp 127.0.0.1:11434`, após uma nova instalação, você pode pular para a etapa de execução do modelo (pois o servidor Ollama já deve estar rodando na porta número 11434 após uma nova instalação).

Preparando o ambiente VS Code

  1. Abra o VS Code;
  2. Crie ou abra um projeto Python;
  3. Abra a paleta de comandos (Ctrl+Shift+P ou Cmd+Shift+P no macOS);
  4. Digite “Cody: Focus on Chat View” e pressione Enter;
  5. Selecione o modelo “deepseek-r1” na lista que aparecer.
Card lateral do Cody para escrever os prompts e escolher o modelo de IA a ser utilizado

Utilizando o DeepSeek no VS Code: chat e sugestões de código

Através do Chat

  1. Abra o painel do Cody:
  2. Clique no ícone do Cody na barra lateral do VS Code (parece um balão de chat);
  3. Ou use o atalho Ctrl+Shift+A (Cmd+Shift+A no macOS).
Barra lateral do VS Code com o ícone do Cody para acessar o painel de prompt

No chat, você pode:

  • Fazer perguntas sobre seu código;
  • Solicitar explicações sobre funções;
  • Pedir sugestões de melhorias;
  • Requisitar documentação.

Através de comentários

No seu arquivo Python:

  • Digite `#` ou `”””` para iniciar um comentário;
  • Escreva sua pergunta ou solicitação;
  • Pressione Enter.

Então, o DeepSeek irá:

  • Analisar seu comentário;
  • Gerar sugestões relevantes;
  • Oferecer completions de código.

Tipos de interações suportadas

1. Complemento de código

  • Digite parte do código;
  • Pressione Tab para ver sugestões;
  • Use as setas para navegar entre as opções.

2. Explicações de código

  • Selecione um trecho de código;
  • Clique com o botão direito;
  • Escolha “Explain Code” no menu contextual.

3. Refatoração

  • Selecione o código que deseja melhorar;
  • Clique com o botão direito;
  • Escolha “Refactor Code” no menu.

4. Documentação

  • Posicione o cursor sobre uma função;
  • Digite `”””` e pressione `Enter`;
  • O DeepSeek gerará uma docstring apropriada.

Dicas para melhores resultados

1. Seja específico

  • Use termos técnicos precisos;
  • Forneça contexto relevante;
  • Explique o resultado desejado.

2. Mantenha o contexto

  • Mantenha arquivos relacionados abertos;
  • Referencie funções e variáveis existentes;
  • Mencione bibliotecas que está usando.

3. Iteração

  • Comece com pedidos simples;
  • Refine gradualmente suas solicitações;
  • Use o feedback do modelo para melhorar seus prompts.

Recursos de produtividade

1. Atalhos úteis

  • `Ctrl + /` (`Cmd + /` no macOS): inicia um comentário;
  • `Ctrl + Space`: força sugestões de código;
  • `Ctrl + Shift + A`: abre o chat do Cody.

2. Comandos da paleta

  • “Cody: Reset Chat”: limpa o histórico de chat;
  • “Cody: Restart Language Server”: resolve problemas de conexão;
  • “Cody: Configure Settings”: ajusta preferências.

Quando reiniciar o serviço Ollama

É recomendado reiniciar o serviço Ollama quando:

  • O VS Code não está recebendo sugestões;
  • As respostas estão muito lentas;
  • Após atualizações do sistema;
  • Se houver erros de conexão.

Para reiniciar:

  1. Feche o terminal com `ollama serve`;
  2. Abra um novo terminal;
  3. Execute `ollama serve` novamente;
  4. Reconecte o Cody ao Ollama no VS Code.

Solução de problemas: erros comuns e como resolvê-los

Ollama não responde

Problema: serviço não responde na porta 11434.

Solução:

  1. Verifique se o serviço está rodando;
  2. Execute no terminal: `ollama serve`.

Erro no download

Problema: falha ao baixar modelos.

Solução:

  1. Verifique sua conexão;
  2. Certifique-se de ter espaço suficiente;
  3. Tente novamente com ollama pull deepseek-r1.

Segurança e privacidade do DeepSeek

O DeepSeek oferece vantagens significativas em termos de segurança:

  • Todo processamento é local;
  • Nenhum dado é enviado para servidores externos;
  • Conformidade com políticas de segurança empresariais;
  • Proteção de propriedade intelectual.

Comparativo: DeepSeek vs. outras IAs de código

RecursoDeepSeekGitHub CopilotTabnineCodeFonton
Uso offline⚠️
CustoGratuito$10/mêsFreemiumGratuito
Suporte a PythonExcelenteExcelenteBomBom
VelocidadeBoaExcelenteBoaMédia
PrecisãoMuito BoaExcelenteBoaBoa
Recursos offlineCompletosNenhumLimitadosCompletos

Conclusão

O DeepSeek representa uma evolução significativa no desenvolvimento Python, oferecendo uma alternativa gratuita e offline ao GitHub Copilot. Com sua instalação simples, variedade de modelos e capacidade de gerar código de qualidade, torna-se uma ferramenta indispensável para desenvolvedores que valorizam privacidade e eficiência.

Para complementar seus estudos sobre o teman, confira nossos tutoriais específicos sobre como rodar modelos de linguagem natural localmente com Ollama e como utilizar Ollama via LangChain:

Além disso, se deseja continuar sua jornada de aprendizado e aprofundar seus conhecimentos em IA e desenvolvimento Python, recomendamos acessar o curso gratuito de IA da Asimov Academy, que ajudará você a levar suas habilidades ao próximo nível.

Curso Gratuito

Seu primeiro projeto de IA com Python – curso grátis com certificado

Aprenda a programar com Python e explore a inteligência artificial! Crie um chatbot prático que interage com seus próprios dados.

Comece agora

Com esses recursos e o DeepSeek em mãos, você está bem equipado para começar sua jornada no desenvolvimento Python assistido por IA.

Imagem de um notebook

Cursos de programação gratuitos com certificado

Aprenda a programar e desenvolva soluções para o seu trabalho com Python para alcançar novas oportunidades profissionais. Aqui na Asimov você encontra:

  • Conteúdos gratuitos
  • Projetos práticos
  • Certificados
  • +20 mil alunos e comunidade exclusiva
  • Materiais didáticos e download de código
Inicie agora

Comentários

30xp
Comentar
Faça parte da discussão Crie sua conta gratuita e compartilhe
sua opinião nos comentários
Entre para a Asimov