#371 マックス・テグマーク


#371 マックス・テグマーク

AI が抱えるリスクを私たちはどのように乗り越えていくのか?

ゲスト:マックス・テグマーク - MIT の物理学者/人工知能研究者、Future of Life Institute の共同設立者、「LIFE3.0 人工知能時代に人間であるということ」の著者。最近、公開書簡で GPT-4 より規模の大きい AI モデルの開発を6ヶ月間停止するよう呼びかけたキーパーソンの一人。

[このエピソードのポイント]
物理学者で AI 研究者でもあり、そして、責任ある AI 開発の主導的な提唱者であるマックス・テグマークが、人類が直面している AI のリスクと人類の存続について考えを述べます。巨大な AI の開発の一時停止を求める公開書簡について振り返り、AI の発展とその影響について将来どのようなことが待ち受けているのかを探ります。

トピック1:地球外知的生命体

宇宙に生命は存在するのか?マックス・テグマークがこの問いにおける視点を共有します。

トピック2:Life 1.0、2.0、3.0

Life 1.0、2.0、3.0 の概念について学び、昨今の AI の急速な進歩によって、マックス・テグマークのビジョンがどのように変化したかを探ります。

トピック3:AI 開発に関する公開書簡

なぜ GPT-4 よりも強力なモデルの開発を6ヶ月間停止するよう求めているのか?公開書簡を発表した動機とその影響について探ります。

トピック4:AGI は誰も制御できない?

AGI を開発した企業さえも AGI を制御できなくなると警鈴を鳴らす理由と、それが人類にとって何を意味するのか考察します。

トピック5:AI 安全性

AI 安全性へのアプローチについて、どのようなアイデアを持っているのか伺います。

トピック6:AI のオープンソース化

AI はオープンソース化すべきか?AI のオープンソース化とそのリスクについて見解を話します。

トピック7:AI と人類存続への脅威

AI が人類存続への脅威となるとはどういうことなのか?マックス・テグマークがこのリスクにおける視点を共有します。

トピック8:AI に意識はあるか?

意識とは何か、どのように定義するかを説明し、この哲学的な問いについて考察します。

トピック9:核戦争の脅威

核戦争の脅威の高まりと核の冬について警鈴を鳴らします。

トピック10:AGI への質問

人類が安全で制御された AGI の開発に成功した場合、AGI にどのような質問をしてみたいかを伺います。そして、AI に意識はあるか?について改めて考察します。


YouTube チャプター

- 地球外知的生命体は存在すると思うか?

1:56

- Life 1.0、2.0、3.0 とは?

14:20

- 巨大な AI の開発を停止することについて

25:47

- 雇用の問題について

1:30:34

- AI の安全性について

1:39:48

- GPT-4 はオープンソース化すべきか?

2:01:31

- AI がどのように人間を殺すのか?

2:08:01

- GPT-4 は意識を持っていると思うか?

2:18:32

- 核戦争の脅威と核の冬について

2:27:54

- AGI にどんな質問をしたいか?

2:38:21