レンタルサーバってPythonが使えるもののバージョンが固定されててアップデートができないことが多いですね。
するとこのライブラリーを使いたいんだけど、入れようとしたら依存関係でアウツ!となることが多々あります。
我々のような雑魚いエンジニアとしましては、AWSなる青天井サーバは怖いし、ライブラリを使わずに同じ挙動を再現することはできません。
詰んだ!詰んだ!と思ったら、なんかHugging Face Inference APIという選択肢があるらしい。
Hugging Face Inference APIなるものはなんぞや?
じゃあいつも通りGPTから入りますねー。
Hugging Face Inference APIは、リモートでモデルを利用できる便利なサービスで、古い環境でも最新のモデル推論を実現できます。料金は無料プランもありますが、利用量が多い場合や特定の要件がある場合には有料プランの検討が必要です。詳細な料金や制限については、公式の料金ページで最新情報を確認することが重要です。
具体的には、インターネッツに公開されたPython等のライブラリを、API経由でアクセス可能にしてくれる便利ツールらしいです。
例えば以下のようなこともできるとGPT神は言っている。
まとめると、GPT API経由ではなく、Hugging Face Inference APIや他の外部サービスを用いることで、「sonoisa/sentence-bert-base-ja-mean-tokens」と同じモデルのベクトル化を実現することが可能です。
※PythonってGPTのAPI経由でもしかしていけんのか?って聞いて、別のモデルならGPTにも入ってるからいけるけどお前が使ってるのと同じモデルはねえよと言われた。で、ごねたら上を出してくれた。
なんか無料枠もあるそうです。これを使えばいけそうっすね!
Hugging Face Inference APIなるものを使ってみた!
けっこう簡単だった!と言ってる方多くてうまくいきそうな感じはする。しかしエンジニアのいう簡単は一般人には難解であることも多い・・
やってみたところ、アクセス自体はコードがHugging上にあってAIに書いて貰えば結構簡単にできた。
ただ、連続してやると、503になったりすることもあった。
まあ無料だしそこは致し方なし。というか課金体系がいまだにわかっていない。(クレカ情報とか入れてないから課金はされてないはず)
コメント