出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/12/21 04:57 UTC 版)
| |
|
| Perplexity | |
|
Perplexity.aiのスクリーンショット(2025)
|
|
|
種類
|
非公開企業 |
|---|---|
| 業種 | 人工知能 |
| 事業分野 | 検索エンジン |
| 設立 | 2022年8月9日[1] |
| 創業者 | Aravind Srinivas Andy Konwinsk Denis Yarats Johnny Ho |
| 本社 | |
|
主要人物
|
Aravind Srinivas (CEO) |
|
従業員数
|
55[2] (2024) |
| ウェブサイト | www |
Perplexity(パープレキシティ、パープレ)は、AIスタートアップ企業Perplexity AI, Inc.により2022年に公開されたAIチャットボット型の検索エンジンである[3]。ウェブからの情報源を用いて回答を生成し、回答文中に根拠となる情報源を引用する機能を持つ。
無料版のPerplexityに加えて、より高度な機能が利用可能な有料版のPerplexity Pro,Perplexity Maxが提供されている[4]。
2024年6月17日にはソフトバンク株式会社との提携が発表され、日本語では「パープレ」という愛称が提案された[5][6][7]。
Perplexityは、バックエンドシステム、AI、機械学習などの経歴を持つエンジニア集団Aravind Srinivas、Denis Yarats、Johnny Ho、Andy Konwinskiらによって2022年に開発された[8]。
Srinivas(CEO)はOpenAIのAI研究者、Yarats(CTO)はMetaのAI研究者、Ho(最高戦略責任者)はQuoraでエンジニアとウォール街でのトレーダー、Konwinskiはデータブリックスの創設チームの一人であった[9]。
Perplexityへの出資者の中には、Amazon CEOのジェフ・ベゾス、エヌビディア、データブリックス、Bessemer Venture Partners、スーザン・ウォシッキー、ジェフ・ディーン、ヤン・ルカン、Andrej Karpathy、ナット・フリードマン、およびGarry Tanなどがいる[10]
2024年、1億6,500万ドルの資金調達を行い、企業価値は10億ドルを超えた[11]
2024年第1四半期、利用者数が1,500万人を達した[12]。
2024年半ば、評価額は30億ドルに達した[13]。
無料版検索では、Perplexity AI, Inc.が検索に最適化して作成した検索特化型言語モデルが用いられており、一般的な検索を行い情報元を引用しながら回答を生成することができる[14]。ただし、2025年3月時点では回数制限が存在する。アカウントを作成すれば、通常の検索は無制限にできるが、Pro検索、Deep Researchは毎日5回までしか利用できない。この制限を引き上げるには有料版(Pro版)を20ドル(約3000円)で契約する必要がある。
「フォーカス」機能により、ユーザーは検索対象を学術論文等に限定した「学術」、計算データや数学的な計算に焦点を当てた「WolframAlpha」、YouTube内の動画を対象とした「YouTube」、Redditの議論に限定した「Reddit」、OpenAI o1-miniを用いた「推論」などのモードで検索対象を絞り込むことができる[15]。
Pro版では、複雑な質問・長い回答に対応したPro Search機能を無制限に使うことができる[16]。回答の生成に用いる大規模言語モデルとしてより高度な他社のモデルを使うことができ、例えばChatGPT、Gemini、Claudeなどの最新モデルを利用することができる。また、Perplexity AI, Inc.が独自開発しSonarと呼ばれるLlama 3ベースの言語モデルを利用することもできる[17]。また、PDF、CSV、画像など様々なファイルアップロード機能が利用可能になり、APIクレジットも提供される[18]。
(誰かお願いします)
(誰かお願いします)
画像生成機能はPro版限定の機能であり、現在はNano Banana、Seedream 4.0、GPT Image 1、FLUX.1の4つのモデルを利用して、画像を生成することができる[19]。なお、プロンプトを入力して画像を生成する別のサービスとは異なり、検索結果を視覚的に説明するために画像生成機能が実装されているため、検索後にのみ画像生成オプションが表示される[19]。
2024年5月30日、Perplexityは、ユーザープロンプトに基づいてカスタマイズ可能なWeb ページを生成するPagesと呼ばれる新機能の提供を開始した。 PagesはPerplexityのAI検索モデルを利用して情報を収集し、公開して他の人と共有できる研究プレゼンテーションを作成する[20][21]。
(誰かお願いします)
2024年6月、ForbesはPerplexityがForbesのコンテンツを使用したとしてPerplexityを公に批判した。Forbesによると、Perplexityは、Forbesへの言及や目立つ引用をせずに、独自の Forbes記事の一部をそのまま流用した。これに対してCEOのSrinivas氏は、機能に問題点はあるとして受け入れたが、Perplexityは情報を盗用するのではなく集約するだけであると主張した[22][23]。
2024年6月下旬、雑誌WiredとWeb開発者のRobb Knightによる個別の調査で、Perplexityはメディアの記事の盗用はしていないと主張しているにもかかわらず、ウェブクローラーによるコンテンツのスクレイピングをウェブサイト側が阻止できる「robots.txt」を尊重せず、スクレイピングが禁止されたウェブサイトにもアクセスしていることが判明した[24]。 PerplexityはウェブクローラーのIPアドレス範囲とユーザーエージェント文字列も公表しているが、WiredとRobb Knightは、「robots.txt」を無視する場合はPerplecityが未公開のIPアドレスと偽装されたユーザーエージェント文字列を使用していると主張した[25][26]。これに対し、Srinivas氏は電話インタビューで、「Perplexityはロボット排除プロトコルを無視しているわけではない…我々は自社のウェブクローラーだけではなく、サードパーティのウェブクローラーにも依存している」と述べた。Srinivas氏は、Wiredによって特定されたウェブクローラーはサードパーティプロバイダーによって所有されていたと説明した[27]。Wiredはまた、場合によっては、Perplexity が「実際のニュース記事ではなく、抜粋やメタデータなど検索エンジンに残されたURLや痕跡に基づいてニュース記事の内容を再構成し、ニュース記事への直接アクセスに基づくと称する要約を提供している可能性がある」と述べた[25]。Perplexityがサードパーティを使用したWiredコンテンツのスクレイピングをやめるのかと尋ねられたとき、Srinivas氏は「それは複雑だ(it's complicated)」と答えた[27]。
PerplexityのクローラーをホストするAmazon Web Servicesには、利用者が「robots.txt」を無視することを禁止する利用規約がある。 Amazonは、同社によるAmazon Elastic Compute Cloudの使用状況に関する定期的な調査を開始した[28]。
2024年7月、これらの指摘を受けてPerplexityは、利用者の質問に対して各メディアの記事を情報源として用いた時、Perplexityが広告収益を得た場合、そのメディアやコンテンツの作成者に広告収益を再分配するというプログラムを発表した[29][30]。TIME、Der Spiegel、Fortune、Entrepreneur、The Texas Tribune、WordPressなどがこのプログラムの契約を結んでいる[30]。
(Perplexity から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/12/27 04:55 UTC 版)
|
|
この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。 (2022年7月)
|
情報理論において、パープレキシティ(英: perplexity)は、確率分布や確率モデルがサンプルをどの程度正確に予測するかを示す指標である。確率モデルを比較するために使用することができる。パープレキシティが低いということは、確率分布がサンプルを予測するのに優れていることを示している。
離散確率分布 ![]()
自然言語処理(NLP)において、コーパスは文やテキストの集合であり、言語モデルは文やテキスト全体に対する確率分布である。したがって、コーパスに対する言語モデルのパープレキシティを定義することができる。しかし、NLPでは、より一般的に使われる尺度は単語ごとのパープレキシティ(perplexity per word)であり、次のように定義される。ここで、 はコーパス内の 個の文、 はコーパス内の単語数である。
コーパスの平均的な文 xi が言語モデルに応じて の確率を持つとする。そうすると、1文あたり 2190 という膨大なモデルパープレキシティを生じる。ただし、文の長さで正規化する方法が一般的である。たとえば、テストサンプルの文が 1,000 語で、1単語あたり 7.95 ビットで符号化できたとした場合、1単語あたり 27.95 = 247 のモデルパープレキシティを得ることができる。言い換えれば、モデルはテストデータ上で、各単語の 247 の可能性の中から一様に独立して選択しなければならないのと同じくらい混乱している。
1992年に発表されたブラウン・コーパス(さまざまなトピックやジャンルの100万語のアメリカ英語)の最小パープレキシティは、実に1単語あたり約 247 であり、トライグラムモデルを使用した場合の交差エントロピーは、log2247 = 7.95 ビット/単語、または 1.75 ビット/文字に相当する[1]。より専門的なコーパスの場合は、予測可能性が高くなるために、より低いパープレキシティを達成することがよくある。
ところが、ブラウン・コーパスの次の単語が「the」であると単純に推測した場合の精度は 7% になり、予測可能性の尺度としてパープレキシティを単純に使用した 1/247 = 0.4% ではない。この推定値は、ブラウン・コーパスのユニグラム統計に基づくもので、パープレキシティ 247 を生成したトライグラム統計に基づくものではない。トライグラム統計を使用すると正しい推測の可能性はさらに向上する。