Aplicação

Documentação para aplicativo de IDE AI livre do Parrot.

Nota

O Parrot está em desenvolvimento inicial, não está pronto para usuários finais.

Requisitos

O Parrot requer um sistema atualizado GNU/Linux, como o Debian Estável.

Baixar

A versão atual do Parrot pode ser baixada aqui:

Alternativamente, as versões também estão disponíveis neste servidor:

Executar

É um AppImage, então precisa ser tornado executável e depois executado:

chmod +x Parrot.AppImage
./Parrot.AppImage

Estado

Atualmente, nem todos os componentes do Parrot estão prontos.

Componentes principais:

  • Ambiente de Desenvolvimento Integrado (editor de texto e código).

  • Extensão de inteligência artificial do IDE.

  • Servidor de extensão AI.

  • Servidor do mecanismo de inferência de IA.

  • Modelo de Inteligência Artificial.

  • Pesquisar servidor.

O que nominalmente funciona:

  • Ambiente de Desenvolvimento Integrado (editor de texto e código).

  • Extensão de inteligência artificial do IDE.

  • Servidor de extensão AI.

What is missing:

  • Servidor do mecanismo de inferência de IA.

  • Modelo de Inteligência Artificial.

  • Pesquisar servidor.

Servidor de Inteligência Artificial

O Parrot está sem o servidor de inferência de IA integrado. Pode ser feito funcionar executando seu próprio servidor e modelo de IA. Isso exigiria, em suma:

  • Encontre um modelo.

  • git clone https://github.com/ggerganov/llama.cpp

  • Construa llama.cpp.

  • Execute o servidor llama.cpp.

Executando o servidor desta forma, com o modelo GGUF (veja: TheBloke).

cd llama.cpp/build
./bin/server -c 4096 --host 127.0.0.1 -t 16 mymodel.gguf

Outro exemplo, usando a primeira GPU:

export CUDA_VISIBLE_DEVICES=0

cd ~/devel/ggerganov/llama.cpp/build
./bin/server \
    --n-gpu-layers 1024 \
    -c 8192 \
    --host 0.0.0.0 \
    --port 8080 \
    -t 16 \
    -m /srv/ml/huggingface/TheBloke/Phind-CodeLlama-34B-v2-GGUF/phind-codellama-34b-v2.Q8_0.gguf

Nota

A documentação do Parrot é escrita em inglês e utiliza tradução automática de máquina para outras línguas.