Microsoft、Copilotの無料版にGPT-4 Turbo LLMを追加
2023年、マイクロソフトは人工知能に大きく賭け、OpenAIと提携してCopilotを実現しました。
HuggingFace で量子 LLM が利用できるようになりました。また、H20、Text Gen、GPT4All などの AI エコシステムではLLM の重みをコンピューターにロードできるため、無料で柔軟かつ安全な AI の選択肢が得られます。今すぐ試すことができるベスト 9 のローカル/オフライン LLM をご紹介します。
目次
Hermes 2 Pro は、Nous Research によって微調整された高度な言語モデルです。これは、OpenHermes 2.5 データセットの更新されスリム化されたバージョンと、同社自身が開発した新しく導入された関数呼び出しおよび JSON データセットを使用します。このモデルは Mistral 7B アーキテクチャに基づいており、主に合成データである GPT-4 品質以上の 1,000,000 の指示/会話でトレーニングされています。
モデル |
エルメス 2 プロ GPTQ |
---|---|
モデルサイズ |
7.26GB |
パラメータ |
70億 |
量子化 |
4ビット |
タイプ |
ミストラル |
ライセンス |
アパッチ 2.0 |
Mistral 7B の Hermes 2 Pro は、Hermes 7B の新しい主力モデルであり、AGIEval、BigBench Reasoning、GPT4All、TruthfulQA などのさまざまなベンチマークでパフォーマンスが向上しています。高度な機能により、コード生成、コンテンツ作成、会話型 AI アプリケーションなど、多くの自然言語処理 (NLP) タスクに適しています。
Zephyr は、役立つアシスタントとして機能するようにトレーニングされた一連の言語モデルです。 Zephyr-7B-Beta はシリーズの 2 番目のモデルであり、公開されている合成データセットの混合に対して直接選好最適化 (DPO) を使用して Mistral-7B-v0.1 から改良されました。
モデル |
ゼファー7Bベータ |
---|---|
モデルサイズ |
7.26GB |
パラメータ |
70億 |
量子化 |
4ビット |
タイプ |
ミストラル |
ライセンス |
アパッチ 2.0 |
トレーニング データセットの組み込みアライメントを排除することで、Zephyr-7B-Beta は MT-Bench などのベンチマークでパフォーマンスが向上し、さまざまなタスクでの有用性が向上します。ただし、この調整により、特定の方法でプロンプトが表示された場合に問題のあるテキスト生成が発生する可能性があります。
この量子化された Falcon バージョンは、TII の生の Falcon-7b モデルを改良したデコーダーのみのアーキテクチャに基づいています。基本的な Falcon モデルは、パブリック インターネットから取得した 1.5 兆個の未処理トークンを使用してトレーニングされます。 Apache 2 ライセンスのコマンドベースのデコーダーのみのモデルである Falcon Instruct は、言語翻訳やデータ取り込みに使用するモデルを探している中小企業に最適です。
モデル |
ファルコン7B-Instruct |
---|---|
モデルサイズ |
7.58GB |
パラメータ |
70億 |
量子化 |
4ビット |
タイプ |
ファルコン |
ライセンス |
アパッチ 2.0 |
ただし、このバージョンの Falcon は微調整には適しておらず、推論のみを目的としています。 Falcon を微調整したい場合は、生のモデルを使用する必要があります。そのためには、NVIDIA DGX や AMD Instinct AI Accelerators などのエンタープライズ グレードのトレーニング ハードウェアへのアクセスが必要になる場合があります。
GPT4All-J Groovy は、Nomic AI によって調整され、Apache 2.0 でライセンスされたデコーダーのみのモデルです。 GPT4ALL-J Groovy は、プロンプトからテキストを生成するのに優れていることで知られるオリジナルの GPT-J モデルに基づいています。 GPT4ALL -J Groovy は会話型モデルに調整されており、高速でクリエイティブなテキスト生成アプリケーションに最適です。これにより、GPT4All-J Groovy は、詩、音楽、物語など、コンテンツ作成者の執筆や作文を支援するのに最適です。
モデル |
GPT4ALL-J グルーヴィー |
---|---|
モデルサイズ |
3.53GB |
パラメータ |
70億 |
量子化 |
4ビット |
タイプ |
GPT-J |
ライセンス |
アパッチ 2.0 |
残念ながら、ベースラインの GPT-J モデルは英語のみのデータセットでトレーニングされたため、この微調整された GPT4ALL-J モデルでも会話やテキスト生成アプリケーションは英語でしか実行できません。
DeepSeek Coder V2 は、プログラミングと数学的推論を強化する高度な言語モデルです。 DeepSeek Coder V2 は複数のプログラミング言語をサポートし、拡張されたコンテキスト長を提供するため、開発者にとって多用途なツールとなります。
モデル |
DeepSeek Coder V2 説明書 |
---|---|
モデルサイズ |
13GB |
パラメータ |
330億 |
量子化 |
4ビット |
タイプ |
ディープシーク |
ライセンス |
アパッチ 2.0 |
DeepSeek Coder V2 は、前バージョンと比較して、コード、推論、および一般的な機能に関連するタスクが大幅に改善されています。プログラミング言語のサポートを 86 から 338 に拡張し、コンテキストの長さを 16K トークンから 128K トークンに拡張します。ベンチマークでは、暗号化および数学のベンチマークにおいて、GPT-4 Turbo、Claude 3 Opus、Gemini 1.5 Pro などのモデルよりも優れた性能を発揮します。
Mixtral-8x7B は、Mistral AI によって開発されたエキスパート モデル (MoE) の混合物です。 MLP ごとに 8 人のエキスパートがおり、合計 450 億のパラメータがあります。ただし、推論中にトークンごとにアクティブ化されるエキスパートは 2 人だけなので、計算効率が高く、速度とコストは 120 億のパラメータ モデルに匹敵します。
モデル |
ミクストラル-8x7B |
---|---|
モデルサイズ |
12GB |
パラメータ |
450億(専門家8名) |
量子化 |
4ビット |
タイプ |
ミストラルMoE |
ライセンス |
アパッチ 2.0 |
Mixtral は 32k トークンのコンテキスト長をサポートし、ほとんどのベンチマークで Llama 2 を 70B 上回り、GPT-3.5 のパフォーマンスと同等かそれ以上を実現します。英語、フランス語、ドイツ語、スペイン語、イタリア語など複数の言語に対応しており、さまざまな NLP タスクに幅広く対応できます。
Wizard-Vicuna GPTQ は、LlaMA モデルに基づく Wizard Vicuna の量子バージョンです。一般に公開されているほとんどの LLM とは異なり、Wizard-Vicuna は関連付けが削除された無修正モデルです。これは、このモデルが他のほとんどのモデルと同じ安全性と倫理基準を満たしていないことを意味します。
モデル |
ウィザード-ビクーニャ-30B-無修正-GPTQ |
---|---|
モデルサイズ |
16.94 GB |
パラメータ |
300億 |
量子化 |
4ビット |
タイプ |
ラマ |
ライセンス |
GPL 3 |
AI アライメント制御に問題が生じる可能性がありますが、無修正 LLM を使用すると、制約なしに回答できるため、モデルの性能を最大限に引き出すことができます。これにより、ユーザーは、特定のプロンプトに基づいて AI がどのように動作または応答するかについて、独自のカスタム アライメントを追加することもできます。
独自の学習方法を使用してトレーニングされたモデルをテストしたいとお考えですか? Orca Mini は、Microsoft の Orca 研究論文の非公式実装です。このモデルは教師と生徒の学習アプローチを使用してトレーニングされており、データセットにはプロンプトと応答だけでなく説明も含まれています。理論的には、従来の LLM のように単に入力と出力のペアを探すのではなく、モデルが問題を理解できるようになるため、学生はより賢くなるはずです。
Llama 2はオリジナルの Llama LLM の後継機種であり、パフォーマンスと汎用性が向上しています。 13B Chat GPTQ バリアントは、英語の対話に最適化された会話型 AI アプリケーション向けに調整されています。
上記のモデルの中には、仕様に関して複数のバージョンが存在するものもあります。一般的に、スペックの高いバージョンではより良い結果が得られますが、より強力なハードウェアが必要になります。一方、スペックの低いバージョンでは品質の低い結果が得られますが、低スペックのハードウェアでも実行できます。お使いの PC がこのモデルを実行できるかどうかわからない場合は、まずスペックの低いバージョンを試してみて、パフォーマンスの低下が許容できなくなるまで続けます。
2023年、マイクロソフトは人工知能に大きく賭け、OpenAIと提携してCopilotを実現しました。
Nvidia は、OpenAI、Anthropic、Meta、Google の主要な独自モデルと同等の性能を持つと言われるオープンソースの大規模言語モデル (LLM) のリリースを発表しました。
iPhone やその他の Apple ハードウェア製品の製造で最もよく知られている Foxconn が、製造とサプライ チェーン管理の改善に使用することを目的とした、初の大規模言語モデル (LLM) である FoxBrain を発表し、皆を驚かせました。
学生は学習のために特定のタイプのノートパソコンを必要とします。専攻分野で十分なパフォーマンスを発揮できるだけでなく、一日中持ち運べるほどコンパクトで軽量であることも重要です。
Windows 10 にプリンターを追加するのは簡単ですが、有線デバイスの場合のプロセスはワイヤレス デバイスの場合とは異なります。
ご存知の通り、RAMはコンピューターにとって非常に重要なハードウェア部品であり、データ処理のためのメモリとして機能し、ノートパソコンやPCの速度を決定づける要因です。以下の記事では、WebTech360がWindowsでソフトウェアを使ってRAMエラーをチェックする方法をいくつかご紹介します。
スマートテレビはまさに世界を席巻しています。数多くの優れた機能とインターネット接続により、テクノロジーはテレビの視聴方法を変えました。
冷蔵庫は家庭ではよく使われる家電製品です。冷蔵庫には通常 2 つの部屋があり、冷蔵室は広く、ユーザーが開けるたびに自動的に点灯するライトが付いていますが、冷凍室は狭く、ライトはありません。
Wi-Fi ネットワークは、ルーター、帯域幅、干渉以外にも多くの要因の影響を受けますが、ネットワークを強化する賢い方法がいくつかあります。
お使いの携帯電話で安定した iOS 16 に戻したい場合は、iOS 17 をアンインストールして iOS 17 から 16 にダウングレードするための基本ガイドを以下に示します。
ヨーグルトは素晴らしい食べ物です。ヨーグルトを毎日食べるのは良いことでしょうか?ヨーグルトを毎日食べると、身体はどう変わるのでしょうか?一緒に調べてみましょう!
この記事では、最も栄養価の高い米の種類と、どの米を選んだとしてもその健康効果を最大限に引き出す方法について説明します。
睡眠スケジュールと就寝時の習慣を確立し、目覚まし時計を変え、食生活を調整することは、よりよく眠り、朝時間通りに起きるのに役立つ対策の一部です。
レンタルして下さい! Landlord Sim は、iOS および Android 向けのシミュレーション モバイル ゲームです。あなたはアパートの大家としてプレイし、アパートの内装をアップグレードして入居者を受け入れる準備をしながら、アパートの賃貸を始めます。
Bathroom Tower Defense Roblox ゲーム コードを入手して、魅力的な報酬と引き換えましょう。これらは、より高いダメージを与えるタワーをアップグレードしたり、ロックを解除したりするのに役立ちます。
変圧器の構造、記号、動作原理を最も正確な方法で学びましょう。
画質や音質の向上から音声制御まで、これらの AI 搭載機能により、スマートテレビはさらに優れたものになります。
当初、人々はDeepSeekに大きな期待を寄せていました。 ChatGPT の強力な競合製品として販売されている AI チャットボットは、インテリジェントなチャット機能とエクスペリエンスを約束します。