GPT-3.5 Turboがファインチューニング可能に、GPT-4も今秋に可能となる予定
ChatGPTが盛り上がってますが、このほど、GPT-3.5 Turboというモデルがファインチューニング可能となった模様です。
GPT-3.5 Turboがカスタマイズ可能に ファインチューニング機能提供 GPT-4も秋対応 - ITmedia NEWS
OpenAIのサイトから無料で使えるのがこの3.5ですが、これを自前の言語データで学習してカスタマイズすることが可能となった模様。
といっても、GPT-APIでの話のようです。
なお、その料金はというと、1000トークンあたり0,008ドル(約1.17円)とのこと。一見すると割安感がありますけど、利用時にもお金がかかることに注意。
なお、GPT-4も今秋にはファインチューニングできるようになるとのアナウンスも出されております。来年頭にはGPT-5なるものが出るとの話もあったので、しばらくはOpenAIの周辺は騒がしくなりそうです。
ところで、そのファインチューニングってどうやるんでしょうね?
今回の新しいモデルではないですが、GPT-3をファインチューニングしてみたという記事が以下にあります。
OpenAI APIのFine-tuningを試してみる | DevelopersIO
この記事の最後に「GPT-3.5でもFine-tuningできるようにならんかな。。。」と書かれてますが、できるようになりましたね。きっと今ごろはこの記事の主様は狂喜乱舞していることでしょう。
当然ですが、データはOpenAIのクラウド上にあげることになります。このため、機密情報などの取り扱いには注意が必要。
でないと、あなたの性癖が世界中に晒されることに・・・
やっぱり、オンプレ環境でのLLMを使う道筋も欲しいところですね。
そういえば今日は名古屋に行ってきたついでに、本屋を巡ってきました。
相変わらず、ChatGPTの本が多いですね。
ところが、その中にホリエモンのChatGPT本なんてものがありました。どんな内容なのか?気になるところです。
ChatGPTブームは、しばらく続きそうですよね。
« 中部国際空港(セントレア)へ行ってきました | トップページ | ExcelがPythonに対応 »
「数値解析系」カテゴリの記事
- Tanuki-8Bの4ビット量子化ggufモデルでRAGをやってみました(2024.09.14)
- 純日本産なローカルLLM「Tanuki-8B」を試してみた(2024.09.02)
- 東京のセールスフォースに行ってきました(2024.07.24)
- ローカルLLM「Llama-3-ELYZA-JP-8B」にいろいろ聞いてみた(2024.07.01)
- ElyzaのLlama3ベースの言語モデル「Llama-3-ELYZA-JP-8B」のRAGが予想以上に賢かった件(2024.06.27)
コメント