Opera、ローカル LLM をサポートする最初の Web ブラウザー

Opera は、ローカル LLM をサポートする最初の Web ブラウザです。この機能はまだテスト中ですが、ご自身でテストすることができます。その方法は次のとおりです。

大規模言語モデル (LLM) は、大量のテキストでトレーニングされ、ChatGPT や Gemini などの AI チャットボットを強化するインテリジェント エンジンです。そしてオペラが最初になりましたブラウザローカル LLM を統合できる Web。すでに LLM をローカルにインストールして使用している可能性もあります。モデルはコンピューターに保存されるため、クラウドに何も送信する必要はありません。これには適切なハードウェア構成が必要ですが、プライバシーの観点からは最適なソリューションです。オペラはすでにいくつかの AI 機能を導入しています。現在、ブラウザはローカル LLM で起動されており、150 以上の LLM から選択できます。

始める前に、留意すべき点がいくつかあります。まず第一に、このオプションはまだ実験段階であるため、あちこちでバグが発生する可能性があることに注意してください。次に、ディスク上のスペースが必要になります。LLM には 2 GB 未満のものもあれば、40 GB を超えるものもあります。

LLM が大きいほど、より良い答えが得られますが、ダウンロードに時間がかかり、答えが得られるまでの時間が遅くなります。モデルのパフォーマンスはハードウェア構成によって異なります。古いマシンを使用している場合は、おそらく応答までしばらく待つ必要があります。

これらのローカル LLM は、テクノロジー大手 (グーグル、メタ、インテル、マイクロソフト) など、研究者や開発者によって開発されました。これらは無料でインストールして使用できます。主に、自分のマシンを使用して操作するため、開発チームには運用コストがかかりません。

これらのモデルの一部は特にコーディングに特化しているため、ChatGPT、Copilot、Gemini などのより一般的なトピックについてはあまり満足のいく答えが得られない可能性があることに注意してください。それぞれに説明があり、インストール前にガイドします。

自分でテストしてみよう

執筆時点では、この機能は Opera のテスト バージョンでのみ利用可能であり、大規模な展開は保留中です。テストしたい場合は、ダウンロードしてインストールする必要がありますOpera One の開発者バージョン。完了したら、Aria ボタン (小さな A 記号) をクリックして左側のサイド パネルを開き、指示に従って組み込み AI ボットを構成します (無料の Opera アカウントを使用する必要があります)。

Aria の準備が完了すると、上部に [ローカル AI モデルの選択] テキスト ボックスが表示されます。それをクリックして [設定に移動] を選択すると、利用可能な LLM のリストとそれらに関する情報が表示されます。 1 つを選択すると、バージョン、ファイル サイズ、ボタンのリストが表示されます。ダウンロードローカルにインストールします。

複数の LLM を設定できます。オペラ必要に応じて、Aria ウィンドウの上部にあるドロップダウン メニューから各会話で使用するものを選択します。ローカル LLM を選択しない場合は、デフォルト モデル (クラウドベース) が使用されます。チャット ウィンドウの右上隅にある大きな + ボタンをクリックすると、いつでも新しい会話を開始できます。

これらのオンプレミス LLM は、クラウド内の他の LLM と同様に使用できます。これを使用して、あらゆるトピックやスタイルでテキストを生成し、人生、宇宙、その他すべてについて質問し、必要なことに対する答えを得ることができます。これらのモデルはクラウドにアクセスできないため、Web 上の最近のトピックを利用することはできません。