Artwork

コンテンツは Bleav + Nicole Kalil and Nicole Kalil によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Bleav + Nicole Kalil and Nicole Kalil またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!

Unmasking AI with Dr. Joy Buolamwini | 259

36:14
 
シェア
 

Manage episode 454598911 series 3603958
コンテンツは Bleav + Nicole Kalil and Nicole Kalil によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Bleav + Nicole Kalil and Nicole Kalil またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal

What happens when technology isn’t held accountable? Dr. Joy Buolamwini, founder of the Algorithmic Justice League, is here to guide us through AI’s power, pitfalls, and potential. From exposing bias in facial recognition to championing ethical AI, Dr. Joy is leading the charge to protect what makes us human in a world dominated by machines.

As a Rhodes Scholar, MIT researcher, and author of Unmasking AI: My Mission to Protect What Is Human in a World of Machines, Dr. Joy’s groundbreaking work has reshaped the conversation on AI ethics. Her viral TED Talk and the Emmy-nominated documentary Coded Bias highlight the real-world consequences of unchecked technology and why ethical AI is essential for everyone.

AI isn’t inherently good or evil—it’s a tool. How we use it defines its impact, and being human isn’t just a feature—it’s the whole point.

Connect with Dr. Joy:

Website: www.Unmasking.ai

Algorithmic Justice League: https://www.ajl.org/

Book: https://www.penguinrandomhouse.com/books/670356/unmasking-ai-by-dr-joy-buolamwini/

Poet of Code: https://www.poetofcode.com/

TSA Facial Scan Opt Out: https://www.ajl.org/campaigns/fly

Related Podcast Episodes:

Share the Love:

If you found this episode insightful, please share it with a friend, tag us on social media, and leave a review on your favorite podcast platform!

🔗 Subscribe & Review:
Apple Podcasts | Spotify | Amazon Music

  continue reading

277 つのエピソード

Artwork
iconシェア
 
Manage episode 454598911 series 3603958
コンテンツは Bleav + Nicole Kalil and Nicole Kalil によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Bleav + Nicole Kalil and Nicole Kalil またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal

What happens when technology isn’t held accountable? Dr. Joy Buolamwini, founder of the Algorithmic Justice League, is here to guide us through AI’s power, pitfalls, and potential. From exposing bias in facial recognition to championing ethical AI, Dr. Joy is leading the charge to protect what makes us human in a world dominated by machines.

As a Rhodes Scholar, MIT researcher, and author of Unmasking AI: My Mission to Protect What Is Human in a World of Machines, Dr. Joy’s groundbreaking work has reshaped the conversation on AI ethics. Her viral TED Talk and the Emmy-nominated documentary Coded Bias highlight the real-world consequences of unchecked technology and why ethical AI is essential for everyone.

AI isn’t inherently good or evil—it’s a tool. How we use it defines its impact, and being human isn’t just a feature—it’s the whole point.

Connect with Dr. Joy:

Website: www.Unmasking.ai

Algorithmic Justice League: https://www.ajl.org/

Book: https://www.penguinrandomhouse.com/books/670356/unmasking-ai-by-dr-joy-buolamwini/

Poet of Code: https://www.poetofcode.com/

TSA Facial Scan Opt Out: https://www.ajl.org/campaigns/fly

Related Podcast Episodes:

Share the Love:

If you found this episode insightful, please share it with a friend, tag us on social media, and leave a review on your favorite podcast platform!

🔗 Subscribe & Review:
Apple Podcasts | Spotify | Amazon Music

  continue reading

277 つのエピソード

すべてのエピソード

×
 
Loading …

プレーヤーFMへようこそ!

Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。

 

クイックリファレンスガイド