Jump to content

Colocando o ChatGPT para ler seu Projeto L2J


agaZe

Recommended Posts

Nattan Felipe
This post was recognized by Nattan Felipe!

agaZe was awarded the badge 'Helpful' and 100 points.

Isso aqui é muito Básico, mas pode ajudar muito a você iniciante que ainda não tem o caminho das pedras em mãos.
Ao invés de tirar uma dúvida genérica no chatgpt, faça upload do seu projeto (.zip) no chatGPT ou faça upload no Github e depois cole o link no chatgpt. 

Não resolve tudo. Mas vai te ajudar bastante!!
Espero lhe ajudar com essa dica. 

aqui tem um exemplo: tive uma dúvida com a FASTMAP e não tinha a quem perguntar no momento. Joguei meu projeto todo no GPT e pedi uma ajuda..


image.png.8c3f88faac4798c7b10a4a04d1acc2f0.png

  • Like 7
Link to comment
Share on other sites


  • L2JBr ADM

Esse material é interessante, com o seu progresso poste mais sobre o uso do chatgpt para o emulador, eu também uso e cobre boa parte das duvidas que eu levaria horas em google e stacksoverflows da vida.

Link to comment
Share on other sites

Também há a possibilidade de usar um modelo de LLM localmente pelo

This is the hidden content, please
 (com interface
This is the hidden content, please
).

Se quiserem eu posto um tutorial de como rodar, escolher os modelos de linguagem e etc.

  • Like 1
8cp1z10.png
Link to comment
Share on other sites

  • L2JBr ADM
46 minutos atrás, mend3 disse:

Também há a possibilidade de usar um modelo de LLM localmente pelo

This is the hidden content, please
 (com interface
This is the hidden content, please
).

Se quiserem eu posto um tutorial de como rodar, escolher os modelos de linguagem e etc.

Eu quero viu rsrsrs, tem muita diferença atualmente em usar esses LLM locais em relação essas webs? A velocidade obvio deve ser maior ne? 
Mas a assertividade também é boa?

Link to comment
Share on other sites

Sim. O custo, desempenho, disponibilidade e foco são os principais diferenciais.

Os modelos online costumam ser mais performáticos e recebem atualizações e melhorias automaticamente por parte do provedor (e.g.: Chat GPT => Open AI, Gemini => Google, Grok => x "antigo twitter"). Possui a versão free que já assiste boa parte dos usuários e também as versões pagas.

Os modelos que podemos rodar no nosso próprio computador (e.g.: Ollama), funcionam offline - dependendo de internet somente durante o processo de instação e setup, são gratuitos e contam com contribuição da comunidade entidades para que consigam ser utilizados de forma prática pelos usuários e no formato OpenSource (

This is the hidden content, please
). Você pode treinar um contexto específico para o tipo de inteligência que precisar para uma situação específica. Ou seja, é possível treinar uma AI que leia e entenda o seu código e seja capaz de fornecer (e inclusive executar seu código) melhorias para o projeto. Tudo isso ao custo de um bom hardware para poder arcar com o custo de processamento.

Hoje em dia, há vários bons modelos para hardwares a partir de 16GB RAM + GPU.

  • Like 3
8cp1z10.png
Link to comment
Share on other sites

2 horas atrás, mend3 disse:

Sim. O custo, desempenho, disponibilidade e foco são os principais diferenciais.

Os modelos online costumam ser mais performáticos e recebem atualizações e melhorias automaticamente por parte do provedor (e.g.: Chat GPT => Open AI, Gemini => Google, Grok => x "antigo twitter"). Possui a versão free que já assiste boa parte dos usuários e também as versões pagas.

Os modelos que podemos rodar no nosso próprio computador (e.g.: Ollama), funcionam offline - dependendo de internet somente durante o processo de instação e setup, são gratuitos e contam com contribuição da comunidade entidades para que consigam ser utilizados de forma prática pelos usuários e no formato OpenSource (

This is the hidden content, please
). Você pode treinar um contexto específico para o tipo de inteligência que precisar para uma situação específica. Ou seja, é possível treinar uma AI que leia e entenda o seu código e seja capaz de fornecer (e inclusive executar seu código) melhorias para o projeto. Tudo isso ao custo de um bom hardware para poder arcar com o custo de processamento.

Hoje em dia, há vários bons modelos para hardwares a partir de 16GB RAM + GPU.

Eu criei um dataset com base o projeto da L2jmega e assim puis para treinar 
image.png.7b0152a90a7c056c7e7a55f050844482.png

 

Edited by FUSI0N
  • Like 3
  • I love it 1
Link to comment
Share on other sites

Baixei o ollama e testei com o llama3 de 8b (é o que minha gpu suporta), e é legal, mas é necessário conter as expectativas. A inferioridade em relação aos modelos comerciais é muito grande, então pra quem não tem um hardware muito bom mesmo, é mais um playground para testes.

Usei o AnythingLLM para analisar alguns arquivos java e um pdf mas os resultados não foram bons

Edited by coldplay
  • Like 2
Link to comment
Share on other sites

21 horas atrás, coldplay disse:

Baixei o ollama e testei com o llama3 de 8b (é o que minha gpu suporta), e é legal, mas é necessário conter as expectativas. A inferioridade em relação aos modelos comerciais é muito grande, então pra quem não tem um hardware muito bom mesmo, é mais um playground para testes.

Usei o AnythingLLM para analisar alguns arquivos java e um pdf mas os resultados não foram bons

Sim se alguem poder ajuda tenho uma maquina de 32gb e cpu de 8core estou tentando treinar com base a l2jMega mais devo esta fazendo alguma coisa errada....

Link to comment
Share on other sites

  • L2JBr ADM
Em 17/06/2024 at 11:10, mend3 disse:

Sim. O custo, desempenho, disponibilidade e foco são os principais diferenciais.

Os modelos online costumam ser mais performáticos e recebem atualizações e melhorias automaticamente por parte do provedor (e.g.: Chat GPT => Open AI, Gemini => Google, Grok => x "antigo twitter"). Possui a versão free que já assiste boa parte dos usuários e também as versões pagas.

Os modelos que podemos rodar no nosso próprio computador (e.g.: Ollama), funcionam offline - dependendo de internet somente durante o processo de instação e setup, são gratuitos e contam com contribuição da comunidade entidades para que consigam ser utilizados de forma prática pelos usuários e no formato OpenSource (

This is the hidden content, please
). Você pode treinar um contexto específico para o tipo de inteligência que precisar para uma situação específica. Ou seja, é possível treinar uma AI que leia e entenda o seu código e seja capaz de fornecer (e inclusive executar seu código) melhorias para o projeto. Tudo isso ao custo de um bom hardware para poder arcar com o custo de processamento.

Hoje em dia, há vários bons modelos para hardwares a partir de 16GB RAM + GPU.

Faz esse conteúdo ai tio, tou com meu PC parado seria bem legal fazer ele de laboratório pra isso rsrsrs.

Mas é como o parceiro falou ali em cima, o fato dos modelos online serem mais simplificados e terem um suporte maior por serem comerciais devem trazer resultados melhores, porem a velocidade é muito ruim, assino o GTP-Plus mas ultimamente não vi muita diferença do grátis em questão de velocidade, fora a instabilidade constante no sistema. 

Link to comment
Share on other sites





×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.