ストックマーク、ビジネスでも信頼できる130億パラメータLLMをオープンソースで公開

https://prtimes.jp/main/html/rd/p/000000142.000024407.html

ストックマークさんは、8月に4億パラメータのgpt-neox-japanese-1.4bを公開し、今回は130億パラメータのStockmark-13bを公開。

学習量が10倍近くなり、精度も上がっているとのこと。

Reply to this note

Please Login to reply.

Discussion

No replies yet.