
Se você busca uma forma eficiente e privada de desenvolver código com inteligência artificial, o DeepSeek no VS Code pode ser a solução ideal. Diferentemente de outras ferramentas de IA, ele permite gerar código e otimizar seu fluxo de trabalho completamente offline, garantindo mais segurança e privacidade.
Neste artigo, você aprenderá a instalar e configurar o DeepSeek no Visual Studio Code, explorando suas funcionalidades para aprimorar a produtividade no desenvolvimento com Python.
O que é o DeepSeek?
O DeepSeek é um modelo de linguagem de grande escala (LLM) criado na China, projetado para processamento de linguagem natural e geração de código. Lançado em 2023, ele foi treinado com um extenso conjunto de dados de código-fonte e documentação técnica, tornando-se altamente eficiente para auxiliar em tarefas de programação.
A DeepSeek AI, empresa responsável pelo modelo, busca tornar a inteligência artificial mais acessível e eficiente. O DeepSeek-R1, primeira versão otimizada para uso local, permite que desenvolvedores utilizem IA sem depender da nuvem.
Para saber mais sobre o que é o DeepSeek e como ele funciona, recomendamos a leitura do texto abaixo:

Vantagens de usar o DeepSeek no VS Code
- Privacidade: funciona 100% offline, seu código nunca sai do seu computador;
- Gratuidade: sem custos mensais ou anuais;
- Performance: resultados comparáveis a soluções pagas;
- Integração: perfeita harmonia com o VS Code.
Pré-requisitos para utilizar o DeepSeek no VS Code
Antes de começar a instalação, certifique-se de que seu sistema atende aos requisitos mínimos:
- Sistema operacional: Windows 10/11, macOS 10.15+ ou Linux;
- Memória RAM: mínimo 8GB (16GB recomendado);
- Espaço em disco: 2GB livres para o modelo mais leve;
- Python: versão 3.8 ou superior;
- VS Code: instalado.

Como instalar e configurar o VS Code no Windows
Passo a passo: instalando o Ollama, o DeepSeek-R1 e a extensão do VS Code
Para começar a usar o DeepSeek, precisamos configurar três componentes principais: o Ollama (que gerencia os modelos de IA), o modelo DeepSeek-R1 propriamente dito e a extensão do VS Code. O processo é simples e direto, mas deve ser feito na ordem correta para garantir o funcionamento adequado.Fonte: site Ollama
1. Instalando Ollama

Windows:
- Acesse o site oficial da Ollama;
- Baixe e execute o instalador .exe;
- Siga as instruções do assistente;
- Abra o terminal e execute: `ollama –version`.
macOS:
- Baixe o instalador .dmg do site oficial;
- Execute e siga as instruções;
- Verifique a instalação: `ollama –version`.
Linux:
- Abra o terminal e execute:
- `curl -fsSL https://ollama.com/install.sh | sh`
- Verifique a instalação: `ollama –version`.

2. Instalando o modelo DeepSeek
O DeepSeek-R1 oferece diferentes variações para atender a diferentes necessidades:
- 1.5b (1.1GB) – Ideal para laptops e máquinas com recursos limitados;
- 7b (4.7GB) – Bom equilíbrio entre performance e recursos;
- 8b (4.9GB) – Similar ao 7b com melhorias específicas;
- 14b (9.0GB) – Recomendado para máquinas mais potentes;
- 32b (20GB) – Para workstations;
- 70b (43GB) – Para servidores dedicados;
- 671b (404GB) – Uso empresarial.
Para iniciantes, recomendamos começar com o modelo 1.5b ou 7b:
- Abra o terminal;
- Execute o comando: `ollama pull deepseek-r1` ou use o comando de acordo com o modelo que você quer no site do Ollama;
- Aguarde o download (pode levar alguns minutos);
- Execute o comando: `/bye` para sair do Ollama.
3. Configurando o VS Code
- Abra o VS Code;
- Instale a extensão “Cody: AI Code Assistant”;
- Reinicie o VS Code.

Temas do VS Code: conheça os 9 mais usados
Como usar o DeepSeek no VS Code
Após concluir a instalação do Ollama, do modelo DeepSeek e da extensão Cody, você está pronto para começar a usar a ferramenta. Então vamos ver como aproveitar ao máximo seus recursos.
Iniciando o serviço Ollama
Antes de começar a usar o DeepSeek, certifique-se de que o serviço Ollama está rodando:
- Abra um terminal;
- Execute o comando: `ollama serve`;
- Mantenha este terminal aberto enquanto estiver usando o DeepSeek.
NOTA: se der o erro `listen tcp 127.0.0.1:11434`, após uma nova instalação, você pode pular para a etapa de execução do modelo (pois o servidor Ollama já deve estar rodando na porta número 11434 após uma nova instalação).
Preparando o ambiente VS Code
- Abra o VS Code;
- Crie ou abra um projeto Python;
- Abra a paleta de comandos (Ctrl+Shift+P ou Cmd+Shift+P no macOS);
- Digite “Cody: Focus on Chat View” e pressione Enter;
- Selecione o modelo “deepseek-r1” na lista que aparecer.

Utilizando o DeepSeek no VS Code: chat e sugestões de código
Através do Chat
- Abra o painel do Cody:
- Clique no ícone do Cody na barra lateral do VS Code (parece um balão de chat);
- Ou use o atalho Ctrl+Shift+A (Cmd+Shift+A no macOS).

No chat, você pode:
- Fazer perguntas sobre seu código;
- Solicitar explicações sobre funções;
- Pedir sugestões de melhorias;
- Requisitar documentação.
Através de comentários
No seu arquivo Python:
- Digite `#` ou `”””` para iniciar um comentário;
- Escreva sua pergunta ou solicitação;
- Pressione Enter.
Então, o DeepSeek irá:
- Analisar seu comentário;
- Gerar sugestões relevantes;
- Oferecer completions de código.
Tipos de interações suportadas
1. Complemento de código
- Digite parte do código;
- Pressione Tab para ver sugestões;
- Use as setas para navegar entre as opções.
2. Explicações de código
- Selecione um trecho de código;
- Clique com o botão direito;
- Escolha “Explain Code” no menu contextual.
3. Refatoração
- Selecione o código que deseja melhorar;
- Clique com o botão direito;
- Escolha “Refactor Code” no menu.
4. Documentação
- Posicione o cursor sobre uma função;
- Digite `”””` e pressione `Enter`;
- O DeepSeek gerará uma docstring apropriada.
Dicas para melhores resultados
1. Seja específico
- Use termos técnicos precisos;
- Forneça contexto relevante;
- Explique o resultado desejado.
2. Mantenha o contexto
- Mantenha arquivos relacionados abertos;
- Referencie funções e variáveis existentes;
- Mencione bibliotecas que está usando.
3. Iteração
- Comece com pedidos simples;
- Refine gradualmente suas solicitações;
- Use o feedback do modelo para melhorar seus prompts.
Recursos de produtividade
1. Atalhos úteis
- `Ctrl + /` (`Cmd + /` no macOS): inicia um comentário;
- `Ctrl + Space`: força sugestões de código;
- `Ctrl + Shift + A`: abre o chat do Cody.
2. Comandos da paleta
- “Cody: Reset Chat”: limpa o histórico de chat;
- “Cody: Restart Language Server”: resolve problemas de conexão;
- “Cody: Configure Settings”: ajusta preferências.
Quando reiniciar o serviço Ollama
É recomendado reiniciar o serviço Ollama quando:
- O VS Code não está recebendo sugestões;
- As respostas estão muito lentas;
- Após atualizações do sistema;
- Se houver erros de conexão.
Para reiniciar:
- Feche o terminal com `ollama serve`;
- Abra um novo terminal;
- Execute `ollama serve` novamente;
- Reconecte o Cody ao Ollama no VS Code.
Solução de problemas: erros comuns e como resolvê-los
Ollama não responde
Problema: serviço não responde na porta 11434.
Solução:
- Verifique se o serviço está rodando;
- Execute no terminal: `ollama serve`.
Erro no download
Problema: falha ao baixar modelos.
Solução:
- Verifique sua conexão;
- Certifique-se de ter espaço suficiente;
- Tente novamente com ollama pull deepseek-r1.
Segurança e privacidade do DeepSeek
O DeepSeek oferece vantagens significativas em termos de segurança:
- Todo processamento é local;
- Nenhum dado é enviado para servidores externos;
- Conformidade com políticas de segurança empresariais;
- Proteção de propriedade intelectual.
Comparativo: DeepSeek vs. outras IAs de código
Recurso | DeepSeek | GitHub Copilot | Tabnine | CodeFonton |
Uso offline | ✅ | ❌ | ⚠️ | ✅ |
Custo | Gratuito | $10/mês | Freemium | Gratuito |
Suporte a Python | Excelente | Excelente | Bom | Bom |
Velocidade | Boa | Excelente | Boa | Média |
Precisão | Muito Boa | Excelente | Boa | Boa |
Recursos offline | Completos | Nenhum | Limitados | Completos |
Conclusão
O DeepSeek representa uma evolução significativa no desenvolvimento Python, oferecendo uma alternativa gratuita e offline ao GitHub Copilot. Com sua instalação simples, variedade de modelos e capacidade de gerar código de qualidade, torna-se uma ferramenta indispensável para desenvolvedores que valorizam privacidade e eficiência.
Para complementar seus estudos sobre o teman, confira nossos tutoriais específicos sobre como rodar modelos de linguagem natural localmente com Ollama e como utilizar Ollama via LangChain:
Rodando Modelos de Linguagem Natural Localmente com Ollama
Como Utilizar Ollama via LangChain: Um Guia para Iniciantes
Além disso, se deseja continuar sua jornada de aprendizado e aprofundar seus conhecimentos em IA e desenvolvimento Python, recomendamos acessar o curso gratuito de IA da Asimov Academy, que ajudará você a levar suas habilidades ao próximo nível.

Seu primeiro projeto de IA com Python – curso grátis com certificado
Aprenda a programar com Python e explore a inteligência artificial! Crie um chatbot prático que interage com seus próprios dados.
Comece agoraCom esses recursos e o DeepSeek em mãos, você está bem equipado para começar sua jornada no desenvolvimento Python assistido por IA.

Cursos de programação gratuitos com certificado
Aprenda a programar e desenvolva soluções para o seu trabalho com Python para alcançar novas oportunidades profissionais. Aqui na Asimov você encontra:
- Conteúdos gratuitos
- Projetos práticos
- Certificados
- +20 mil alunos e comunidade exclusiva
- Materiais didáticos e download de código
Comentários
30xp