Artwork

コンテンツは Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!

Adrià Garriga-Alonso sobre el riesgo existencial asociado a los modelos de lenguaje a gran escala

53:11
 
シェア
 

Manage episode 418726419 series 3574790
コンテンツは Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
  continue reading

2 つのエピソード

Artwork
iconシェア
 
Manage episode 418726419 series 3574790
コンテンツは Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
  continue reading

2 つのエピソード

すべてのエピソード

×
 
Loading …

プレーヤーFMへようこそ!

Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。

 

クイックリファレンスガイド