事前トレーニング済モデル
OpenSearchを使用したOCI Searchは、様々なOpenSearch事前トレーニング済モデルをホストします。これらのモデルの組込みサポートは、モデルをインポートする必要がなく、モデルの登録およびデプロイのみが必要であることを意味します。
サポートされているOpenSearch事前トレーニング済モデル
OpenSearchは、様々な機械学習(ML)検索および分析のユース・ケースに対して、複数のオープン・ソースの事前トレーニング済モデルを提供します。OCI Search with OpenSearchは、この項にリストされているOpenSearch事前トレーニング済モデルをホストします。
センテンス・トランスフォーマ
センテンス・トランスフォーマ・モデルは、次元の密ベクトル空間にわたって文と段落をマップします。ベクトルの数は、モデルのタイプによって異なります。これらのモデルは、クラスタリングまたはセマンティック検索に使用できます。
モデル名 | バージョン | ベクトル寸法 | 自動切捨て | スクリプト形式 |
---|---|---|---|---|
huggingface/sentence-transformers/all-distilroberta-v1 |
1.0.1 | 768次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/all-MiniLM-L6-v2 |
1.0.1 | 384次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/all-MiniLM-L12-v2 |
1.0.1 | 384次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/all-mpnet-base-v2 |
1.0.1 | 768次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/msmarco-distilbert-base-tas-b |
1.0.2 | 768次元密度ベクトル空間セマンティック検索用に最適化されています。 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/multi-qa-MiniLM-L6-cos-v1 |
1.0.1 | 384次元密度ベクトル空間セマンティック検索用に設計され、2億1,500万の質問/回答ペアでトレーニングを受けています。 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/multi-qa-mpnet-base-dot-v1 |
1.0.1 | 384次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/paraphrase-MiniLM-L3-v2 |
1.0.1 | 384次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |
huggingface/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 |
1.0.1 | 384次元密度ベクトル空間 | はい |
TORCH_SCRIPT ONNX |