Eliezer Shlomo Yudkovskyはアメリカの人工知能の専門家であり、技術的な特異点の問題を研究し、Friendly AIの作成を提唱しています。 彼は認知科学と合理性に関連するいくつかのトピックを説明するいくつかのSF小説の著者です。
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski:伝記
Eliezer Shlomo Yudkovskyは、現代アメリカの最も活発な合理主義者の1人であり、「友好的な人工知能」のアイデアのコンピューター研究者および普及者です。
1979年9月11日生まれ。 彼の本を出版している非政府研究機関である機械知能研究所の共同設立者および研究者。 Eliezer Yudkovskyは、2010年から2015年の間にインターネットで一部公開された哲学小説Harry Potter and the Methods of Rationalismの著者です。 その中で、ハリーはオックスフォードの科学者の家族で育ち、ホグワーツに旅行する前に、合理的な思考の方法を彼から学びます。
知られている限りでは、「投機的現実主義者」の輪とは関係がない。 彼の名前は、ロビン・ハンソンとの関連でよく言及されます。数年間(2006年から2009年)、彼らはオックスフォードの未来人類研究所のお金に存在したブログ「Overcoming the Prejudice」の2人の主要著者でした
ユドコフスキーの名前は、レイモンド・カーツワイルに関連して聞くことができます。 彼はテクノオタクのコミュニティの哲学的な代表者であり、アクセスできず、理解できないため、ほとんどすべての人道主義者にとって、投機的現実主義者のほとんどすべての読者が属します。 それは驚くべきことではありません。なぜなら、彼は論理式や数学的言語、確率論的、統計的結論に目を向け、式や表を使って明らかにするからです。
科学的関心
Yudkovskyは、人工知能研究所(SIAI)の特異点研究所の共同設立者および研究者です。 彼は研究所の発展に多大な貢献をしました。 彼は本「Creating Friendly AI」(2001)、記事「General Intelligenceの組織のレベル」(2002)、「Coherent Extrapolated Volition」(「Coherent Extrapolated Volition」)の著者であり、 2004)およびThe Timeless Decision Theory(2010)。 彼の最新の科学出版物は、ニックボストロムによって編集されたコレクション「グローバルカタストロフのリスク」(2008年)の2つの記事です。 ユドコフスキーは大学で勉強したことはなく、AIの分野で正式な教育を受けていない独学です。
Yudkovskyは、自己理解、自己修正、再帰的自己改善(シードAI)が可能なAI設計、および安定した積極的な動機付け構造(Friendly Artificial Intelligence)を持つAIアーキテクチャを探求します。 ユドコフスキーは、研究活動に加えて、幅広い学者がアクセスできる非学術言語の複雑なモデルの説明で知られています。たとえば、彼の記事「ベイズの定理の直観的な説明」を参照してください。
Yudkovskyは、Robin Hansonとともに、Overcoming Biasブログ(偏見の克服)の主要著者の1人でした。 2009年の初めに、彼は「人間の合理性を開発し、認知の歪みを克服する」ことを目的としたBlog Less Wrongの組織に参加しました。 その後、Overias BiasはHansonの個人ブログになりました。 これらのブログに掲載されている資料は、数千人の読者を引き付ける一連の投稿として構成されています。たとえば、エンターテイメント理論のチェーンを参照してください。
ユドコフスキーは、認知科学と合理性に関連するいくつかのトピックを説明するいくつかのサイエンスフィクションストーリーの著者です。
経歴
- 2000.ユドコフスキーはシンギュラリティ研究所(後にMIRIと改名)を設立しました。
- 2006年。ユドコフスキーは、克服バイアス集団ブログに参加し、後にチェーンになったテキストを書き始めます。
- 2009.バイアスの克服に関するユドコフスキーのエントリに基づいて、有名な集合ブログLessWrong.comが作成されました。
- 2010-2015。 YudkovskyはGPiMRMを作成します。
- 2013. YudkovskyはLessWrong.comに最新の投稿を公開し、サイトへの書き込みを停止します。 2017年現在、ユドコフスキーは一般公開されているテキストのほとんどをFacebookとArbitalで公開しています
思考実験
仮想世界に閉じ込められた信じられないほどスマートな人工のスーパーインテリジェンスを想像してください-たとえば、ちょうどスナッフボックスに。 彼が意地悪か、友好的か、中立的かどうかはわかりません。 あなたが知っているのは、彼が箱から出たいと思っていることと、あなたがテキストインターフェースを通して彼と対話できることです。 AIが本当に超インテリジェントな場合、スナッフボックスを開かないで、彼の説得と操作に屈することなく、5時間彼と話すことができますか?
この思考実験は、工学研究所(MIRI)の研究者であるEliezer Yudkowskyによって提案されました。 MIRIには、人工的なスーパーインテリジェンスを開発するリスクを調査している多くの科学者がいます。 まだ登場していませんが、すでに注目を集めており、議論の原動力となっています。
ユドコフスキーは、人工知能があなたを説得するためにできるすべてのことを言うことができると主張します:慎重な推論、脅威、欺ce、信頼関係の構築、潜在意識の提案など。 AIは光の速さでプロットを作成し、弱点を探り、説得するのが最も簡単な方法を決定します。 実存的脅威理論家のニック・ボストロムが言ったように、「スーパーインテリジェンスが目標として設定するすべてを達成できると信じなければなりません」。
snuffbox AIの実験では、作成できるものを制御する能力に疑問を投げかけています。 それはまた、私たち自身の現実について知らないことのかなり奇妙な可能性を理解させます。