#431 ローマン・ヤンポルスキー 2024-06-03 ローマン・ヤンポルスキー (Roman Yampolskiy) コンピュータサイエンス 人工知能 YouTube で視聴する ローマン・ヤンポルスキーは、AI 安全性・セキュリティの研究者です。 - AGI が人類の文明を滅ぼす確率はどれくらいだと思うか? 2:20 - Ikigai (生きがい) リスクとは? 8:32 - Suffering (苦しみ) リスクとは? 16:44 - AGI 実現までのタイムラインをどのように見ているか? 20:19 - AI が人間の知能レベルに達したかどうかを測るために、どのようなテストが良いと思うか? 24:51 - AI による人類滅亡論は極端な考え方だと批判するヤン・ルカンの見方についてどう思うか? 30:14 - どの時点で AI はコントロール不能になるのか? 43:06 - ソーシャルエンジニアリングについて 45:33 - これまでも新技術が登場する度にそれらに対して恐怖心が生まれたが、AGI がこれまでのそうした恐怖と違うと見るべきなのはなぜか? 48:06 - AI の信頼性の検証について 1:04:30 - 自己改善型 AI について 1:11:29 - AI 開発の停止について 1:23:42 - AI 安全性の問題に対してどのような解決策が考えられるか? 1:29:59 - 現在の AI をどう見ているか? 1:39:43 - シミュレーション仮説、異星人、意識、Neuralink 、複雑系について 1:45:05 - 将来への希望について 2:09:23 - 人生の意味とは? 2:13:18