Artwork

コンテンツは Intergenerational Fairness Day によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Intergenerational Fairness Day またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!

The Future of Intelligence: AI and the Survival of Humanity

51:26
 
シェア
 

Manage episode 440718602 series 3526908
コンテンツは Intergenerational Fairness Day によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Intergenerational Fairness Day またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal

We’re back with part 2 of our Existential Risks Edition! Welcome to the fifth episode of the Intergenerational Fairness Day Podcast coming September 19th! Our discussion today has got everything: a hostile takeover, technological advancements, power and peril and a few heroes like my guest today trying to warn us about it all. This is "Episode 5: The Future of Intelligence: AI and the Survival of Humanity." In today's episode, your host Lena Winzer and her guest founder and director of the Existential Risk Observatory, Otto Barten, are going to break it all down—what AGI actually is, why it could pose such a significant risk, and what's being done to address it. So, buckle up as we separate fact from fiction and explore the existential risks of AI, a topic that could very well determine the fate of humanity.
For more information about the Existential Risk Observatory and their projects - check out the links below!

Website: https://www.existentialriskobservatory.org/

Policy proposals: https://existentialriskobservatory.org/papers_and_reports/Policy%20Proposals.pdf

Articles in TIME: https://time.com/author/otto-barten/

Youtube channel: https://www.youtube.com/@existentialriskobservatory

X: https://x.com/xrobservatory

LinkedIn: https://www.linkedin.com/company/71570894/

Instagram: https://www.instagram.com/existentialriskobservatory/

For more information on the Existential Risk of AI:

Kurzgesagt: https://www.youtube.com/watch?v=fa8k8IQ1_X0

Wikipedia: https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence

Yoshua Bengio's blog: https://yoshuabengio.org/2024/07/09/reasoning-through-arguments-against-taking-ai-safety-seriously/

Superintelligence (in German): https://www.suhrkamp.de/buch/nick-bostrom-superintelligenz-t-9783518586846

The Precipice: https://www.amazon.de/-/en/Toby-Ord/dp/0316484911

PauseAI: https://pauseai.info/

For more information about the double issue of the Intergenerational Justice Review on Existential Risks and other projects of the FRFG check out the links below:
Intergenerational Justice Review: https://igjr.org/ojs/index.php/igjr/issue/view/118
All other FRFG projects: https://www.intergenerationaljustice.org
For more information about the Intergenerational Fairness Day: https://en.wikipedia.org/wiki/Intergenerational_Fairness_Day
..and for this podcast: https://www.buzzsprout.com/2273376

  continue reading

6 つのエピソード

Artwork
iconシェア
 
Manage episode 440718602 series 3526908
コンテンツは Intergenerational Fairness Day によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Intergenerational Fairness Day またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal

We’re back with part 2 of our Existential Risks Edition! Welcome to the fifth episode of the Intergenerational Fairness Day Podcast coming September 19th! Our discussion today has got everything: a hostile takeover, technological advancements, power and peril and a few heroes like my guest today trying to warn us about it all. This is "Episode 5: The Future of Intelligence: AI and the Survival of Humanity." In today's episode, your host Lena Winzer and her guest founder and director of the Existential Risk Observatory, Otto Barten, are going to break it all down—what AGI actually is, why it could pose such a significant risk, and what's being done to address it. So, buckle up as we separate fact from fiction and explore the existential risks of AI, a topic that could very well determine the fate of humanity.
For more information about the Existential Risk Observatory and their projects - check out the links below!

Website: https://www.existentialriskobservatory.org/

Policy proposals: https://existentialriskobservatory.org/papers_and_reports/Policy%20Proposals.pdf

Articles in TIME: https://time.com/author/otto-barten/

Youtube channel: https://www.youtube.com/@existentialriskobservatory

X: https://x.com/xrobservatory

LinkedIn: https://www.linkedin.com/company/71570894/

Instagram: https://www.instagram.com/existentialriskobservatory/

For more information on the Existential Risk of AI:

Kurzgesagt: https://www.youtube.com/watch?v=fa8k8IQ1_X0

Wikipedia: https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence

Yoshua Bengio's blog: https://yoshuabengio.org/2024/07/09/reasoning-through-arguments-against-taking-ai-safety-seriously/

Superintelligence (in German): https://www.suhrkamp.de/buch/nick-bostrom-superintelligenz-t-9783518586846

The Precipice: https://www.amazon.de/-/en/Toby-Ord/dp/0316484911

PauseAI: https://pauseai.info/

For more information about the double issue of the Intergenerational Justice Review on Existential Risks and other projects of the FRFG check out the links below:
Intergenerational Justice Review: https://igjr.org/ojs/index.php/igjr/issue/view/118
All other FRFG projects: https://www.intergenerationaljustice.org
For more information about the Intergenerational Fairness Day: https://en.wikipedia.org/wiki/Intergenerational_Fairness_Day
..and for this podcast: https://www.buzzsprout.com/2273376

  continue reading

6 つのエピソード

すべてのエピソード

×
 
Loading …

プレーヤーFMへようこそ!

Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。

 

クイックリファレンスガイド