Skip to content

Commit

Permalink
update
Browse files Browse the repository at this point in the history
  • Loading branch information
lgrando1 committed Oct 6, 2024
1 parent 164e53a commit 8882aea
Show file tree
Hide file tree
Showing 24 changed files with 53 additions and 43 deletions.
2 changes: 1 addition & 1 deletion index.json

Large diffs are not rendered by default.

9 changes: 5 additions & 4 deletions index.xml
Original file line number Diff line number Diff line change
Expand Up @@ -1068,6 +1068,7 @@
<p><a href="https://lgrando1.github.io/post/prompt1/" target="_blank" rel="noopener">Dicas de Engenharia de Prompt</a></p>
<p><a href="https://lgrando1.github.io/post/ollama/" target="_blank" rel="noopener">Parte 1 - Instalando o Ollama no Linux</a></p>
<p><a href="https://lgrando1.github.io/post/ollamawin/" target="_blank" rel="noopener">Parte 2 - Instalando o Ollama no Windows</a></p>
<p><a href="https://lgrando1.github.io/post/llmtermux/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p>Importante: Nunca utilizar LLMs como oráculos ou como fonte de informações, já encontrei vários erros tanto em modelos online ou offline. Usar apenas como suporte para suas atividades.</p>
<p>Depois de testar LLMs offlines no computador, resolvi procurar uma solução para meu celular. O dispositivo em questão é um celular Android da Marca Samsung <a href="https://www.samsung.com/br/smartphones/galaxy-a/galaxy-a15-blue-black-256gb-sm-a155mzkizto/" target="_blank" rel="noopener">modelo A15 (SM-A155M/DSN)</a>. O mesmo é um dispositivo que me custou um pouco menos de 1000 reais e o possui 8 gigas de RAM, em meus testes a quantidade de RAM influenciou no desempenho, com 8 GB tive sucesso em modelos de no máximo 4B de paramêtros, testei um de 7B e ele ficou muito lerdo para gerar a inferência. Sobre dispositivos com 4 gigas de RAM fiz um teste e descrevo no item 15.</p>
<p>Existem <a href="https://www.reddit.com/r/LocalLLaMA/search/?q=smartphone&type=link&cId=cf9557fb-9775-4a60-8095-c8c0c62a65fa&iId=cc07fcca-916b-44b7-9e36-ddad34b28746" target="_blank" rel="noopener">bastante discussões sobre este tema, como por exemplo em</a> onde conheci este aplicativo, o <a href="https://play.google.com/store/apps/details?id=com.druk.lmplayground" target="_blank" rel="noopener">LM Playground</a>.</p>
Expand Down Expand Up @@ -1665,7 +1666,7 @@
<p><a href="https://lgrando1.github.io/post/prompt1/" target="_blank" rel="noopener">Dicas de Engenharia de Prompt</a></p>
<p><a href="https://lgrando1.github.io/post/ollama/" target="_blank" rel="noopener">Parte 1 - Instalando o Ollama no Linux</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 3 - Instalando LLMs Off-line no Android - pt.1</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p><a href="https://lgrando1.github.io/post/llmtermux/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p>Após o <a href="https://lgrando1.github.io/post/ollama/" target="_blank" rel="noopener">último post</a> onde relatei a experiencia de usar o Ollama em num computador com Linux, resolvi extender o teste em uma máquina com Windows 10.
Fiquei interessado em saber como o Ollama iria se comportar em um computador de 2013, um Samsung NP500P4C-AD2BR, provido de um processador Core i7 de terceira geração e sem uma GPU discreta.
As únicas modificações que realizei neste computador foi a inclusão de mais 2 GB de RAM (agora com 6 gigas) e a instalação de um SSD no lugar do HD original.</p>
Expand Down Expand Up @@ -2023,7 +2024,7 @@ As únicas modificações que realizei neste computador foi a inclusão de mais
<p><a href="https://lgrando1.github.io/post/prompt1/" target="_blank" rel="noopener">Dicas de Engenharia de Prompt</a></p>
<p><a href="https://lgrando1.github.io/post/ollamawin/" target="_blank" rel="noopener">Parte 2 - Instalando o Ollama no Windows</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 3 - Instalando LLMs Off-line no Android- pt.1</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p><a href="https://lgrando1.github.io/post/llmtermux/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p>O recém <a href="https://www.nature.com/articles/d41586-024-02998-y" target="_blank" rel="noopener"><strong>artigo da Nature</strong></a> trouxe uma discussão sobre o uso de LLMs locais em vez daquelas que utilizamos de forma online como por exemplo o Chat-GPT, Gemini e o CoPilot. A preocupação com aspectos como privacidade e o uso de nossos dados quando utilizandos os LLMs de terceitos, sem contar que estas ferramentas nescessitam de acesso a internet.
Sites como o <a href="https://huggingface.co/" target="_blank" rel="noopener">Hugging Face</a> permitem testar alguns usos destas ferramentas utilizando uma biblioteca com a linguagem Python, como eu já descrevi em <a href="https://lgrando1.github.io/post/hface/" target="_blank" rel="noopener">uma postagem anterior.</a></p>
<p>Eu queria algo mais completo como um assistente virtual local e como sou usuário Linux (uso o Pop!_OS 20.04), encontrei este <a href="https://itsfoss.com/ollama-setup-linux/" target="_blank" rel="noopener">post muito bem explicado</a> de como rodar uma LLM de maneira off-line no Linux e então resolvi replicar, e conto esta experiência abaixo.</p>
Expand Down Expand Up @@ -2352,7 +2353,7 @@ PS: peço desculpas na imagem abaixo por que eu digitei um comando errado, por i
<p><a href="https://lgrando1.github.io/post/ollama/" target="_blank" rel="noopener">Parte 1 - Instalando o Ollama no Linux</a></p>
<p><a href="https://lgrando1.github.io/post/ollamawin/" target="_blank" rel="noopener">Parte 2 - Instalando o Ollama no Windows</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 3 - Instalando LLMs Off-line no Android - pt.1</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p><a href="https://lgrando1.github.io/post/llmtermux/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p>Realizei recentemente o curso <a href="https://www.coursera.org/learn/prompt-engineering" target="_blank" rel="noopener"><em>Prompt Engineering for ChatGPT</em></a> e gostaria de compartilhar algumas anotações que realizei durante o mesmo.</p>
<p>Estas ferramentas não podem ser consideradas como <a href="https://chat.openai.com/share/36071465-b59a-44e1-a494-eaba36edc4cd" target="_blank" rel="noopener">fonte de fatos</a>, mas são excelentes como suporte para ideias e quem sabe para tirar da gaveta aquela ideia de um livro.</p>
<p>O objetivo desta série é criar postagens com quatro estratégias por post. Estou utilizando como exemplo o Chat-GPT em sua versão grátis, mas você pode testar em qualquer outra ferramenta.</p>
Expand Down Expand Up @@ -2385,7 +2386,7 @@ PS: peço desculpas na imagem abaixo por que eu digitei um comando errado, por i
<p><a href="https://lgrando1.github.io/post/ollama/" target="_blank" rel="noopener">Parte 1 - Instalando o Ollama no Linux</a></p>
<p><a href="https://lgrando1.github.io/post/ollamawin/" target="_blank" rel="noopener">Parte 2 - Instalando o Ollama no Windows</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 3 - Instalando LLMs Off-line no Android - pt.1</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p><a href="https://lgrando1.github.io/post/llmtermux/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p>A plataforma <a href="https://huggingface.co/" target="_blank" rel="noopener"><strong>Hugging Face</strong></a> é uma portal onde a comunidade de aprendizado de máquina colabora com modelos, conjunto de dados e aplicações.</p>
<p>Ao acessar o site e clicar no link <a href="https://huggingface.co/models" target="_blank" rel="noopener">Models</a> é possível buscar por variados modelos voltados para várias tarefas de aprendizado de máquina, visão computacional, processamento natural de linguagem, áudio, dados tabulares, aprendizado por reforço e outros tipos.</p>
<p>Neste post apresentaremos uma introdução de como utilizar estas bibliotecas em sua máquina (ou no Google Colab). Como exemplo, é demostrado a realização de duas tarefas: o preenchimento de máscaras de texto (completar um espaço de um texto) e o resumo de um texto.</p>
Expand Down
2 changes: 1 addition & 1 deletion post/hface/index.html
Original file line number Diff line number Diff line change
Expand Up @@ -866,7 +866,7 @@ <h1>Testando Modelos de IA com o HuggingFace.</h1>
<p><a href="https://lgrando1.github.io/post/ollama/" target="_blank" rel="noopener">Parte 1 - Instalando o Ollama no Linux</a></p>
<p><a href="https://lgrando1.github.io/post/ollamawin/" target="_blank" rel="noopener">Parte 2 - Instalando o Ollama no Windows</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 3 - Instalando LLMs Off-line no Android - pt.1</a></p>
<p><a href="https://lgrando1.github.io/post/llmandroid/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p><a href="https://lgrando1.github.io/post/llmtermux/" target="_blank" rel="noopener">Parte 4 - Instalando LLMs Off-line no Android - pt.2</a></p>
<p>A plataforma <a href="https://huggingface.co/" target="_blank" rel="noopener"><strong>Hugging Face</strong></a> é uma portal onde a comunidade de aprendizado de máquina colabora com modelos, conjunto de dados e aplicações.</p>
<p>Ao acessar o site e clicar no link <a href="https://huggingface.co/models" target="_blank" rel="noopener">Models</a> é possível buscar por variados modelos voltados para várias tarefas de aprendizado de máquina, visão computacional, processamento natural de linguagem, áudio, dados tabulares, aprendizado por reforço e outros tipos.</p>
<p>Neste post apresentaremos uma introdução de como utilizar estas bibliotecas em sua máquina (ou no Google Colab). Como exemplo, é demostrado a realização de duas tarefas: o preenchimento de máscaras de texto (completar um espaço de um texto) e o resumo de um texto.</p>
Expand Down
Loading

0 comments on commit 8882aea

Please sign in to comment.