Uma pena, mas pelo menos pra mim não vai ser possível, seria muito tempo e dinheiro por um experimento/brincadeira.

Pra treinar um modelo quantizado de 4 bits, pegando um já existente para isso, precisaria de uma GPU de pelo menos 24 GB de VRAM, coisa que não tenho então teria que alugar um serviço de treinamento oque não é barato mesmo pra um modelo quantizado etc.

E além disso, precisaria sanitizar todos os mais de 5 milhões de notas e deixar em um formato de treinamento em um arquivo json, algo como { pergunta, resposta, ...}, imagina o trampo.

Infelizmente não será possivel executar esse experimento que me deixou animado, quem sabe um dia...

nostr:nevent1qqsd3t235ay836puwlvjhttsuqpq373ts6eepe327yw7lnl3835l30spz4mhxue69uhhyetvv9ujuerpd46hxtnfduhsygz4guhfcq0n0g6lvqetndud4h3cdehyc47cplgaqer2hvujsrj7yupsgqqqq3tshcz0xv

Reply to this note

Please Login to reply.

Discussion

Talvez fosse mais jogo pegar algum repositório de livros de TI e usar de base de treino. O que teria de informação zoada no Nostr seria complicado Hahaha