概要2025年の人工知能の未来を形作る10人の人物に注目 — そのコアデザインを洗練させる研究室から、そのガードレールを設定する政策立案者まで。彼らのアイデア、研究、リーダーシップは、AIが世界中でどのように構築され、共有され、使用されるかに実際の変化をもたらしています。これは有名人のリストではありません。ここにいる各人は、実際の影響力を持ち、明確な専門知識を持ち、AIコミュニティ内での議論を導いてきた実績があります。彼らの意見は、私たちの未来を形作るシステムを構築し、指導し、挑戦してきたからこそ重要です。ヤン・ルカンは、特に基礎研究においてAIの最も強力な声の一つであり続けています。彼の公のコメントは、特に大規模言語モデルに関する議論において、一般的な流れに逆らうことが多いです。彼は、はるかに少ないデータで学び、著しく少ないエネルギーを消費するシステムを支持しており、「大きいことは常に良い」という考え方から逸脱しています。ルクンの歴史における地位は、畳み込みニューラルネットワーク(CNNs)を発明したことで確立され、これは現在、コンピュータビジョンに不可欠なものとなっています。今日、彼は自己教師あり学習と自律型AIの主要な提唱者であり、これはデータの無限の取り込みではなく、観察を通じて理解を深める機械です。彼は今ではオリジナルのコンテンツをツイートすることはほとんどなく、AI研究やシステム設計に関する詳細なエッセイをリポストしたりリンクしたりすることが多い。* コアテーマ: エネルギー効率の高いアーキテクチャ、オブジェクト中心の学習、世界モデル;* オーディエンスリーチ: 900,000人以上のフォロワー;*注目すべきダイナミクス:OpenAIおよびDeepMindの研究者との頻繁な技術交流。30年以上にわたり、彼の仕事はMetaのAI戦略を形成してきました。これは、次の単語を予測するだけでなく、人間の推論に近い方法で観察し、考えるシステムを目指しています。アンドレイ・カルパティーは、深い技術的スキルを持ちながら、主要な製品を実現した視点を兼ね備えています。彼は、モデル設計からトレーニングの選択肢、デプロイメントの課題に至るまで、複雑なアイデアを研究者と実践的なビルダーの両方に響く方法で分解します。彼のフィードは技術的な洞察とビジョンを融合させています。例えば、彼は最近、大規模言語モデルが現代ソフトウェアの構成要素になりつつあると提案しました。* レガシー:ディープラーニングとコンピュータビジョンにおける初期のブレークスルー、テスラにおけるAIのリーダーシップ;* リーチ: 100万人以上のフォロワー;* エンゲージメント:頻繁な会議での講演とコミュニティ教育;2024年にOpenAIに戻った後、Karpathyはモデルの管理を容易にし、制御を失うことなくスケールアップすることに注力しました。彼はまた、開発者コミュニティに対してより多くのリソースを開放することにも取り組みました。彼の投稿では、深い技術的思考をソフトウェア構築の日常業務に結び付け、エンジニアに実際の使用に耐えるシステムを作成するための実践的な方法を提供しています。フェイフェイ・リーはAIを人間のニーズに合わせることで評判を築いてきました。彼女は、企業や政府の agenda に応えるだけでなく、医療、教育、公共の利益にサービスを提供するデザインを推進しています。彼女は深層学習を再形成し、今日のAIに最も強い影響を与えたプロジェクトである ImageNet の創設を主導しました。彼女の投稿はAIの人間的側面、倫理的影響、医療への影響、そして人間の尊厳を守る重要性に焦点を当てています。* 知られていること: ImageNet、スタンフォードの人間中心のAI研究所;* オーディエンス: 500,000人以上のフォロワー、米国および国際的な政策立案者への助言;* 現在の焦点:AIアプリケーションにおける倫理、アクセシビリティ、社会的包摂;彼女は、医療従事者、教育者、障害者など、テクノロジーの中でしばしば見落とされる人々の視点を取り入れ、彼らの懸念を中心に据えています。リーは、責任あるAIをエンパシー、先見性、そしてシリコンバレーの役員室からはるかに離れた声の参加の問題として位置づけています。エマド・モスタクは、オープンソースの生成AIにおいて重要な人物です。彼は、モデルやデータセットが大企業の支配を超えてアクセス可能であることを推進しており、多くのスタートアップがオープンウェイトのシステムをリリースする波に影響を与えています。彼のフィードでは、オープンソースの生成AIに関する鮮やかな更新情報や、開発に関する公のフィードバックの招待を共有しています。* マイルストーン: ステーブルディフュージョンの立ち上げ;* フォーカスエリア:コストの透明性、インフラのオープン性、AIの安全原則;* オーディエンス: 250,000人以上のフォロワー;モスタクは、先進的なモデルを構築するための実際のコストと制約を定期的に分析し、生成ツールを推進する予算と技術的努力についての貴重な視点を提供しています。彼のオープン性に対するこだわりは、開発者や研究者が検査し制御できるべきことに対する期待を変えました。ティムニット・ゲブルのアルゴリズムバイアスとデータの透明性に関する研究は、AIの公平性についての議論が世界的にどのように変わったかを示しています。彼女はAI開発における権力を持つ人々と、その権力が結果にどのように影響を与えるかを検討しています。彼女は自らの存在を利用して偏見の問題を強調し、しばしばAIの公平性に関する研究や主要な政策の進展を引用します。* 主要な分野:LLMのシステムバイアス、コミュニティ主導のガバナンス、倫理的データ基準;* 対象: 160,000人以上のフォロワー; 世界中の政策フレームワークで引用されている;彼女は明確な証拠に基づいて自分の主張を構築しています。彼女の研究は、トレーニングデータの欠陥が人種、性別、階級に結びついた現実世界の不平等をどのように引き継ぐかを明らかにしています。今や、法律制定者や規制当局はルールを形成する際に彼女の研究を参照しており、彼女はこの対話の中で重要な批判的な声となっています。クリス・オラは、ニューラルネットワークの最も複雑な部分のいくつかを解明しました。彼のモデルが情報を処理する方法についての視覚的および物語的な説明は、大学の教育資料となり、AIの安全性研究者にとっての参考点となっています。彼は頻繁に解釈可能性の更新を投稿しています。最近のモデル回路分析のオープンソース化に関する作業は、安全性研究の分野で注目を集めました。*専門分野:解釈可能性ツール、意思決定パスの視覚化。* オーディエンス: 150,000人以上のフォロワー;* 最近の作業:モデルアラインメント、安全プロトコル、憲法AI;AIの内部動作を可視化することによって、オラは解釈可能性を学術的な好奇心から信頼と安全のための中心的な要件へと移行させました。彼の影響は、研究所や政策立案者がモデルの行動を監視し、指導する方法に影響を与えています。サラ・フッカーは、機械学習をより効率的かつアクセスしやすくするために取り組んでいます。彼女は、リソースが少ない地域の研究者たちに焦点を当てており、分野に貢献できる人を分散化することを目指しています。彼女の投稿はAI研究におけるインクルーシビティに焦点を当てており、最近では計算ベースの規制の限界に注目を集めています。*主な焦点:スパースモデル、再現性、包括的なAI研究。* 視聴者: 45,000人以上のフォロワー;彼女の仕事は、真剣な研究は巨大なインフラストラクチャーがなければ行えないという信念に疑問を投げかけています。フッカーは、効率的なアーキテクチャとグローバルな協力を促進することで、AIにおけるパフォーマンスと参加の期待を再構築しています。イーサン・モリックは、AIツールが人々の学び方や働き方をどのように変えるかを示しています。教室やビジネス環境での大規模言語モデルを使った彼の実験は、具体的で再現可能な結果を提供します。彼のフィードは、AIを実際のクラスやオフィスのシナリオに導入し、プロンプトデザインや職場ツールがどのように進化し、学習に影響を与えるかを探求しています。* 注力分野: 応用LLM、プロンプトエンジニアリング、AI支援ワークフロー;* オーディエンス: 280,000人以上のフォロワー;モリックは、自分自身でツールを試し、何が起こるかを観察し、その過程でアプローチを調整することで機能します。この実践的なループは、教育者や専門家にAIを最小限の推測で統合するための青写真を提供しています。ダリオ・アモデイは、最も注目されているAI安全性の取り組みの一つを率いています。アンソロピックのクロードの開発は、革新を停滞させることなく、安全にスケーリングを行うためのより大きな戦略の一部です。彼はめったに投稿しませんが、投稿する際には彼の見解が議論を引き起こします。最近、彼はAnthropicの安全第一の使命を歪めるものとして描写した物語に異議を唱えました。* フォーカス: 憲法的AI、システムの信頼性、大規模な整合性;* オーディエンス: 70,000人以上のフォロワー; 法律審議会や国際サミットで認知されている;アモデイの慎重なスタイルと制御メカニズムへの強調は、彼の作品を業界と政府の両方においてモデルの監視に関する期待を設定するための基準点にしています。グレイディ・ブーチのキャリアは、複雑なソフトウェアシステムの設計と管理に基づいており、現代のAIがどのように構築され、維持されるべきかに関する彼の見解は特に貴重です。耐久性を持つシステムの設計に数十年を費やした彼は、持続可能なAIエンジニアリングに必要な要素を強調することができます。彼の声は、深いシステム設計の視点とAIの文脈を組み合わせています。更新はあまり頻繁ではありませんが、彼はAIの議論に対してアーキテクチャの明確さをもたらします。UMLで最も知られている(統一モデリング言語)を作成したBoochは、AIの展開と信頼性に関する問題に対して厳密なアーキテクチャ的思考を適用します。* コアテーマ:システム設計、耐久性、エンジニアリングにおける倫理;* オーディエンス: AIと伝統的な工学コミュニティにまたがる160,000人以上のフォロワー;彼は、あまりにも早く進むことがすでに築かれた基盤を損なうリスクがあると警告しています。彼にとって、持続的な進歩は、忍耐強い設計、厳密なテスト、および強力なエンジニアリングプラクティスへのコミットメントから生まれます。
2025年のトップAIインフルエンサー:認証済み、尊敬されている、フォロワーが多い
概要
2025年の人工知能の未来を形作る10人の人物に注目 — そのコアデザインを洗練させる研究室から、そのガードレールを設定する政策立案者まで。彼らのアイデア、研究、リーダーシップは、AIが世界中でどのように構築され、共有され、使用されるかに実際の変化をもたらしています。
これは有名人のリストではありません。ここにいる各人は、実際の影響力を持ち、明確な専門知識を持ち、AIコミュニティ内での議論を導いてきた実績があります。彼らの意見は、私たちの未来を形作るシステムを構築し、指導し、挑戦してきたからこそ重要です。
ヤン・ルカンは、特に基礎研究においてAIの最も強力な声の一つであり続けています。彼の公のコメントは、特に大規模言語モデルに関する議論において、一般的な流れに逆らうことが多いです。彼は、はるかに少ないデータで学び、著しく少ないエネルギーを消費するシステムを支持しており、「大きいことは常に良い」という考え方から逸脱しています。
ルクンの歴史における地位は、畳み込みニューラルネットワーク(CNNs)を発明したことで確立され、これは現在、コンピュータビジョンに不可欠なものとなっています。今日、彼は自己教師あり学習と自律型AIの主要な提唱者であり、これはデータの無限の取り込みではなく、観察を通じて理解を深める機械です。
彼は今ではオリジナルのコンテンツをツイートすることはほとんどなく、AI研究やシステム設計に関する詳細なエッセイをリポストしたりリンクしたりすることが多い。
30年以上にわたり、彼の仕事はMetaのAI戦略を形成してきました。これは、次の単語を予測するだけでなく、人間の推論に近い方法で観察し、考えるシステムを目指しています。
アンドレイ・カルパティーは、深い技術的スキルを持ちながら、主要な製品を実現した視点を兼ね備えています。彼は、モデル設計からトレーニングの選択肢、デプロイメントの課題に至るまで、複雑なアイデアを研究者と実践的なビルダーの両方に響く方法で分解します。
彼のフィードは技術的な洞察とビジョンを融合させています。例えば、彼は最近、大規模言語モデルが現代ソフトウェアの構成要素になりつつあると提案しました。
2024年にOpenAIに戻った後、Karpathyはモデルの管理を容易にし、制御を失うことなくスケールアップすることに注力しました。彼はまた、開発者コミュニティに対してより多くのリソースを開放することにも取り組みました。彼の投稿では、深い技術的思考をソフトウェア構築の日常業務に結び付け、エンジニアに実際の使用に耐えるシステムを作成するための実践的な方法を提供しています。
フェイフェイ・リーはAIを人間のニーズに合わせることで評判を築いてきました。彼女は、企業や政府の agenda に応えるだけでなく、医療、教育、公共の利益にサービスを提供するデザインを推進しています。彼女は深層学習を再形成し、今日のAIに最も強い影響を与えたプロジェクトである ImageNet の創設を主導しました。
彼女の投稿はAIの人間的側面、倫理的影響、医療への影響、そして人間の尊厳を守る重要性に焦点を当てています。
彼女は、医療従事者、教育者、障害者など、テクノロジーの中でしばしば見落とされる人々の視点を取り入れ、彼らの懸念を中心に据えています。リーは、責任あるAIをエンパシー、先見性、そしてシリコンバレーの役員室からはるかに離れた声の参加の問題として位置づけています。
エマド・モスタクは、オープンソースの生成AIにおいて重要な人物です。彼は、モデルやデータセットが大企業の支配を超えてアクセス可能であることを推進しており、多くのスタートアップがオープンウェイトのシステムをリリースする波に影響を与えています。
彼のフィードでは、オープンソースの生成AIに関する鮮やかな更新情報や、開発に関する公のフィードバックの招待を共有しています。
モスタクは、先進的なモデルを構築するための実際のコストと制約を定期的に分析し、生成ツールを推進する予算と技術的努力についての貴重な視点を提供しています。彼のオープン性に対するこだわりは、開発者や研究者が検査し制御できるべきことに対する期待を変えました。
ティムニット・ゲブルのアルゴリズムバイアスとデータの透明性に関する研究は、AIの公平性についての議論が世界的にどのように変わったかを示しています。彼女はAI開発における権力を持つ人々と、その権力が結果にどのように影響を与えるかを検討しています。
彼女は自らの存在を利用して偏見の問題を強調し、しばしばAIの公平性に関する研究や主要な政策の進展を引用します。
彼女は明確な証拠に基づいて自分の主張を構築しています。彼女の研究は、トレーニングデータの欠陥が人種、性別、階級に結びついた現実世界の不平等をどのように引き継ぐかを明らかにしています。今や、法律制定者や規制当局はルールを形成する際に彼女の研究を参照しており、彼女はこの対話の中で重要な批判的な声となっています。
クリス・オラは、ニューラルネットワークの最も複雑な部分のいくつかを解明しました。彼のモデルが情報を処理する方法についての視覚的および物語的な説明は、大学の教育資料となり、AIの安全性研究者にとっての参考点となっています。
彼は頻繁に解釈可能性の更新を投稿しています。最近のモデル回路分析のオープンソース化に関する作業は、安全性研究の分野で注目を集めました。
*専門分野:解釈可能性ツール、意思決定パスの視覚化。
AIの内部動作を可視化することによって、オラは解釈可能性を学術的な好奇心から信頼と安全のための中心的な要件へと移行させました。彼の影響は、研究所や政策立案者がモデルの行動を監視し、指導する方法に影響を与えています。
サラ・フッカーは、機械学習をより効率的かつアクセスしやすくするために取り組んでいます。彼女は、リソースが少ない地域の研究者たちに焦点を当てており、分野に貢献できる人を分散化することを目指しています。
彼女の投稿はAI研究におけるインクルーシビティに焦点を当てており、最近では計算ベースの規制の限界に注目を集めています。
*主な焦点:スパースモデル、再現性、包括的なAI研究。
彼女の仕事は、真剣な研究は巨大なインフラストラクチャーがなければ行えないという信念に疑問を投げかけています。フッカーは、効率的なアーキテクチャとグローバルな協力を促進することで、AIにおけるパフォーマンスと参加の期待を再構築しています。
イーサン・モリックは、AIツールが人々の学び方や働き方をどのように変えるかを示しています。教室やビジネス環境での大規模言語モデルを使った彼の実験は、具体的で再現可能な結果を提供します。
彼のフィードは、AIを実際のクラスやオフィスのシナリオに導入し、プロンプトデザインや職場ツールがどのように進化し、学習に影響を与えるかを探求しています。
モリックは、自分自身でツールを試し、何が起こるかを観察し、その過程でアプローチを調整することで機能します。この実践的なループは、教育者や専門家にAIを最小限の推測で統合するための青写真を提供しています。
ダリオ・アモデイは、最も注目されているAI安全性の取り組みの一つを率いています。アンソロピックのクロードの開発は、革新を停滞させることなく、安全にスケーリングを行うためのより大きな戦略の一部です。
彼はめったに投稿しませんが、投稿する際には彼の見解が議論を引き起こします。最近、彼はAnthropicの安全第一の使命を歪めるものとして描写した物語に異議を唱えました。
アモデイの慎重なスタイルと制御メカニズムへの強調は、彼の作品を業界と政府の両方においてモデルの監視に関する期待を設定するための基準点にしています。
グレイディ・ブーチのキャリアは、複雑なソフトウェアシステムの設計と管理に基づいており、現代のAIがどのように構築され、維持されるべきかに関する彼の見解は特に貴重です。耐久性を持つシステムの設計に数十年を費やした彼は、持続可能なAIエンジニアリングに必要な要素を強調することができます。
彼の声は、深いシステム設計の視点とAIの文脈を組み合わせています。更新はあまり頻繁ではありませんが、彼はAIの議論に対してアーキテクチャの明確さをもたらします。
UMLで最も知られている(統一モデリング言語)を作成したBoochは、AIの展開と信頼性に関する問題に対して厳密なアーキテクチャ的思考を適用します。
彼は、あまりにも早く進むことがすでに築かれた基盤を損なうリスクがあると警告しています。彼にとって、持続的な進歩は、忍耐強い設計、厳密なテスト、および強力なエンジニアリングプラクティスへのコミットメントから生まれます。