お好きな金額でサポートしていただけると嬉しいです!
(50円〜10,000円[税込]まで)
作成日時:2025年8月7日 00:03
更新日時:2025年8月23日 20:04
generative AI
AnthropicがClaude Opus 4.1をリリースし、OpenAIが初のオープンウェイトモデルGPT-OSSシリーズを発表しました。
ざっと概要をまとめます。
Anthropicが2025年8月5日にリリースしたClaude Opus 4.1は、前世代モデルから大幅な性能向上を実現。
Claude Opus 4.1はハイブリッド推論モデルとして設計されており、拡張思考モードのあり/なしで動作可能です。これにより、タスクに応じて最適な推論方式を選択できます。
8月6日現在、以下のプラットフォームで利用可能です。
・Claude Code
・Anthropic API
・Amazon Bedrock
・Google Cloud Vertex AI
2025年8月5日、OpenAIが「GPT-OSS」シリーズを発表しました。
OSS勢がかなり押していた部分もあって、対策をしてきたんでしょうか。
API利用料ではAnthoropicが首位になったということもあって、今回の発表による今後の各社の動向も楽しみですね。
GPT-OSSシリーズは2つのモデルで構成されています:
・パラメータ数:117B(実際の値)
・アーキテクチャ:Mixture of Experts(MoE)
・量子化:4-bit MXFP4方式
・用途:高性能な推論タスクに最適
・パラメータ数:21B
・アーキテクチャ:Mixture of Experts(MoE)
・量子化:4-bit MXFP4方式
・用途:効率的な推論とリソース制約環境に適用
# Claude Opus 4.1をAPI経由で使用する例
import anthropic
client = anthropic.Anthropic(api_key="your-api-key")
response = client.messages.create(
model="claude-opus-4-1-20250805",
max_tokens=1000,
messages=[
{"role": "user", "content": "複雑なコーディングタスクを解決してください"}
]
)
# Hugging FaceでGPT-OSSを使用する例
from transformers import AutoModelForCausalLM, AutoTokenizer
# 小型モデルの場合
model = AutoModelForCausalLM.from_pretrained("openai/gpt-oss-20b")
tokenizer = AutoTokenizer.from_pretrained("openai/gpt-oss-20b")
# 推論実行
inputs = tokenizer("プロンプトをここに入力", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
response = tokenizer.decode(outputs[0])
・Anthropic - Claude Opus 4.1発表
OpenAIのOSSモデルの発表は、日本国内のビジネス展開を加速させるきっかけになったりするのかな?とか思いました。
ローカルLLMに制限されてしまうという企業などにとっては、精度の問題やらで割と悩まされてきた歴史があるかと思うので、そこを打破するものになるのであれば、一気に活用範囲が広がっていきそうな気もしました。
相変わらずいろんなスピードが速くて大変ですが、頑張ってついていきたいと思います。
それでは、また。
HTNCode