ストックマーク、ビジネスでも信頼できる130億パラメータLLMをオープンソースで公開
https://prtimes.jp/main/html/rd/p/000000142.000024407.html
ストックマークさんは、8月に4億パラメータのgpt-neox-japanese-1.4bを公開し、今回は130億パラメータのStockmark-13bを公開。
学習量が10倍近くなり、精度も上がっているとのこと。
ストックマーク、ビジネスでも信頼できる130億パラメータLLMをオープンソースで公開
https://prtimes.jp/main/html/rd/p/000000142.000024407.html
ストックマークさんは、8月に4億パラメータのgpt-neox-japanese-1.4bを公開し、今回は130億パラメータのStockmark-13bを公開。
学習量が10倍近くなり、精度も上がっているとのこと。
No replies yet.