Skip to content

Files

Latest commit

dd5152e · May 6, 2025

History

History
175 lines (120 loc) · 11.4 KB

README.md

File metadata and controls

175 lines (120 loc) · 11.4 KB
KrillinAI

Ferramenta de Tradução e Dublagem de Vídeos AI de Implantação Minimalista

krillinai%2FKrillinAI | Trendshift

English简体中文日本語한국어Tiếng ViệtFrançaisDeutschEspañolPortuguêsРусскийاللغة العربية

Twitter Discord QQ 群 Bilibili

📢 Nova versão para desktop win&mac lançada! Agradecemos o feedback de testes [a documentação está um pouco desatualizada, em constante atualização]

Introdução ao Projeto

Krillin AI é uma solução abrangente para localização e aprimoramento de áudio e vídeo. Esta ferramenta simples, mas poderosa, combina tradução de áudio e vídeo, dublagem e clonagem de voz, suportando saídas em formatos vertical e horizontal, garantindo uma apresentação perfeita em todas as principais plataformas (Bilibili, Xiaohongshu, Douyin, WeChat Video, Kuaishou, YouTube, TikTok, etc.). Com um fluxo de trabalho de ponta a ponta, o Krillin AI pode transformar materiais brutos em conteúdo pronto para uso em várias plataformas com apenas alguns cliques.

Principais Características e Funcionalidades:

🎯 Início com um clique: Sem configuração de ambiente complexa, instalação automática de dependências, pronto para uso imediatamente, nova versão para desktop, mais conveniente!

📥 Obtenção de Vídeo: Suporta download via yt-dlp ou upload de arquivos locais

📜 Reconhecimento Preciso: Reconhecimento de voz de alta precisão baseado no Whisper

🧠 Segmentação Inteligente: Uso de LLM para segmentação e alinhamento de legendas

🔄 Substituição de Termos: Substituição de vocabulário especializado com um clique

🌍 Tradução Profissional: Tradução em nível de parágrafo baseada em LLM, mantendo a coerência semântica

🎙️ Clonagem de Voz: Oferece vozes selecionadas da CosyVoice ou clonagem de vozes personalizadas

🎬 Composição de Vídeo: Processamento automático de vídeos em formato vertical e horizontal e layout de legendas

Demonstração de Resultados

A imagem abaixo mostra a importação de um vídeo local de 46 minutos, com o arquivo de legendas gerado após a execução com um clique, sem ajustes manuais. Sem faltas, sobreposições, com pausas naturais e qualidade de tradução muito alta. Efeito de Alinhamento

Tradução de Legendas


subtitle_translation.mp4

Dublagem


tts.mp4

Vertical


agi.mp4

🔍 Suporte a Serviços de Reconhecimento de Voz

Todos os modelos locais na tabela abaixo suportam instalação automática de arquivos executáveis + arquivos de modelo, você só precisa escolher, o KrillinAI cuida do resto.

Fonte de Serviço Plataformas Suportadas Opções de Modelo Local/Nuvem Observações
OpenAI Whisper Todas as plataformas - Nuvem Rápido e eficaz
FasterWhisper Windows/Linux tiny/medium/large-v2 (recomendado medium+) Local Mais rápido, sem custos de nuvem
WhisperKit macOS (apenas para chips M) large-v2 Local Otimização nativa para chips Apple
Aliyun ASR Todas as plataformas - Nuvem Evita problemas de rede na China continental

🚀 Suporte a Modelos de Linguagem Grande

✅ Compatível com todos os serviços de modelos de linguagem grande em nuvem/local que atendem às especificações da API OpenAI, incluindo, mas não se limitando a:

  • OpenAI
  • DeepSeek
  • Tongyi Qianwen
  • Modelos de código aberto implantados localmente
  • Outros serviços de API compatíveis com o formato OpenAI

Suporte a Idiomas

Idiomas de entrada suportados: Chinês, Inglês, Japonês, Alemão, Turco, Coreano, Russo, Malaio (em constante aumento)

Idiomas de tradução suportados: Inglês, Chinês, Russo, Espanhol, Francês e outros 101 idiomas

Pré-visualização da Interface

Pré-visualização da Interface

🚀 Começo Rápido

Passos Básicos

Primeiro, baixe o arquivo executável correspondente ao seu sistema operacional na seção Release, siga o tutorial abaixo para escolher entre a versão desktop ou não desktop, e coloque em uma pasta vazia. Baixe o software em uma pasta vazia, pois ele gerará alguns diretórios após a execução, o que facilita a gestão.

【Se for a versão desktop, ou seja, o arquivo release que contém desktop, veja aqui】
A versão desktop é nova e foi lançada para resolver o problema de novos usuários que têm dificuldade em editar corretamente os arquivos de configuração, ainda há muitos bugs, em constante atualização.

  1. Clique duas vezes no arquivo para começar a usar (a versão desktop também precisa de configuração, que deve ser feita dentro do software)

【Se for a versão não desktop, ou seja, o arquivo release que não contém desktop, veja aqui】
A versão não desktop é a versão inicial, a configuração é mais complexa, mas a funcionalidade é estável, adequada para implantação em servidores, pois fornece uma interface de usuário via web.

  1. Crie uma pasta config dentro da pasta, e então crie um arquivo config.toml dentro da pasta config, copie o conteúdo do arquivo config-example.toml que está no diretório config e preencha com suas informações de configuração.
  2. Clique duas vezes ou execute o arquivo executável no terminal para iniciar o serviço
  3. Abra o navegador e digite http://127.0.0.1:8888 para começar a usar (substitua 8888 pela porta que você preencheu no arquivo de configuração)

Para: Usuários de macOS

【Se for a versão desktop, ou seja, o arquivo release que contém desktop, veja aqui】
Atualmente, devido a problemas de assinatura, a versão desktop não pode ser executada com um clique ou instalada via dmg, é necessário confiar manualmente no aplicativo, o método é o seguinte:

  1. No terminal, abra o diretório onde o arquivo executável (supondo que o nome do arquivo seja KrillinAI_1.0.0_desktop_macOS_arm64) está localizado
  2. Execute os seguintes comandos:
sudo xattr -cr ./KrillinAI_1.0.0_desktop_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_desktop_macOS_arm64 
./KrillinAI_1.0.0_desktop_macOS_arm64

【Se for a versão não desktop, ou seja, o arquivo release que não contém desktop, veja aqui】
Este software não foi assinado, portanto, ao executá-lo no macOS, após concluir a configuração dos arquivos na "etapa básica", você ainda precisará confiar manualmente no aplicativo, o método é o seguinte:

  1. No terminal, abra o diretório onde o arquivo executável (supondo que o nome do arquivo seja KrillinAI_1.0.0_macOS_arm64) está localizado
  2. Execute os seguintes comandos:
     sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
     sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
     ./KrillinAI_1.0.0_macOS_arm64
    
    O serviço será iniciado

Implantação com Docker

Este projeto suporta implantação com Docker, consulte as Instruções de Implantação com Docker

Instruções de Configuração de Cookies (opcional)

Se você encontrar problemas ao baixar vídeos

Consulte as Instruções de Configuração de Cookies para configurar suas informações de Cookie.

Ajuda de Configuração (obrigatório)

A maneira mais rápida e conveniente de configurar:

  • Escolha openai para transcription_provider e llm_provider, assim você só precisa preencher openai.apikey nas três categorias de configuração abaixo: openai, local_model, aliyun para realizar a tradução de legendas. (app.proxy, model e openai.base_url podem ser preenchidos conforme sua situação)

Configuração para usar modelos de reconhecimento de linguagem local (não suportado no macOS) (equilibrando custo, velocidade e qualidade):

  • Preencha transcription_provider com fasterwhisper e llm_provider com openai, assim você só precisa preencher openai.apikey e local_model.faster_whisper nas três categorias de configuração abaixo: openai, local_model para realizar a tradução de legendas, o modelo local será baixado automaticamente. (app.proxy e openai.base_url conforme acima)

As seguintes situações exigem configuração do Aliyun:

  • Se llm_provider estiver preenchido com aliyun, será necessário usar o serviço de modelo grande do Aliyun, portanto, a configuração do item aliyun.bailian é necessária.
  • Se transcription_provider estiver preenchido com aliyun, ou se a função "dublagem" estiver ativada ao iniciar a tarefa, será necessário usar o serviço de voz do Aliyun, portanto, a configuração do item aliyun.speech é necessária.
  • Se a função "dublagem" estiver ativada e um áudio local for enviado para clonagem de voz, será necessário usar o serviço de armazenamento em nuvem OSS do Aliyun, portanto, a configuração do item aliyun.oss é necessária.
    Ajuda de configuração do Aliyun: Instruções de Configuração do Aliyun

Perguntas Frequentes

Por favor, consulte as Perguntas Frequentes

Normas de Contribuição

  1. Não envie arquivos desnecessários, como .vscode, .idea, etc., use .gitignore para filtrá-los.
  2. Não envie config.toml, mas sim use config-example.toml para enviar.

Contate-Nos

  1. Junte-se ao nosso grupo QQ para tirar dúvidas: 754069680
  2. Siga nossas contas de mídia social, Bilibili, onde compartilhamos conteúdo de qualidade na área de tecnologia AI diariamente.

Histórico de Estrelas

Gráfico de Histórico de Estrelas