Artwork

コンテンツは Paradromics Inc によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Paradromics Inc またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!

Trading Spaces // Dimensionality Reduction for Neural Recordings

1:31:02
 
シェア
 

Manage episode 287768768 series 2828281
コンテンツは Paradromics Inc によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Paradromics Inc またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal

Welcome back to Neurotech Pub!

In this episode, Vikash Gilja reprises his role as Vikash Gilja. We are also joined by Konrad Kording, Chethan Pandarinath, and Carsen Stringer. We talk about how dimensionality reduction is used to better understand large scale neural recordings. This episode is fairly technical, but it contains many great references if you are interested in learning more. We open with a brief explainer video by Paradromics’ own Aditya Singh.

Check out full video with transcript here: https://www.paradromics.com/podcast/neurotech-pub-episode-4-trading-spaces-dimensionality-reduction-for-neural-recordings

00:40 | Dimensionality Intro

04:42 | Podcast Start

07:50 | Janelia Research Campus

08:56 | Translational Neuroengineering Lab

09:35 | Stanford Neural Prosthetics Translational Lab

10:10 | Shenoy Lab

12:00 | Deep Brain Stimulation

12:57 | Chethan’s work on retinal prosthetics

15:00 | Immunology

15:20 | Jonathan Ruben

15:30 | Byron Yu

15:41 | Gatsby Computational Neuroscience Unit

18:00 | Joshua Tenenbaum

18:30 | Kording Lab at UPenn

18:46 | Neuromatch Academy

19:47 | Neuromatch Academy Q&A

21:21 | Dimensionality reduction for neural recordings

26:22 | The Curse of Dimensionality

30:11 | Principal Component Analysis

32:20 | Neural Firing as a Poisson Process

33:13 | Shared Variance Component Analysis

35:18 | Cross validation in large scale recording

38:29 | A theory of multineuronal dimensionality

39:10 | Random projections explained with visuals

42:24 | Correcting a reductionist bias

48:30 | Noise Correlations

49:35 | More on Noise Correlations

57:40 | LFADS

01:01:51 | What is a stationary process?

01:06:02 | Inferring single-trial neural population dynamics

01:06:46 | Task Specificity

01:07:28 | Lee Miller

01:08:18 | “I don’t know, I might be wrong”

01:13:16 | Neural Constraints on Learning

01:15:00 | A recent exciting paper from Yu and Batista Labs

01:19:01 | Hume on Causation

Want more?

Follow Paradromics & Neurotech Pub on Twitter

Follow Matt A, Konrad Kording, Chethan Pandarinath, and Carsen Stringer on Twitter.

  continue reading

20 つのエピソード

Artwork
iconシェア
 
Manage episode 287768768 series 2828281
コンテンツは Paradromics Inc によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Paradromics Inc またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作物をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal

Welcome back to Neurotech Pub!

In this episode, Vikash Gilja reprises his role as Vikash Gilja. We are also joined by Konrad Kording, Chethan Pandarinath, and Carsen Stringer. We talk about how dimensionality reduction is used to better understand large scale neural recordings. This episode is fairly technical, but it contains many great references if you are interested in learning more. We open with a brief explainer video by Paradromics’ own Aditya Singh.

Check out full video with transcript here: https://www.paradromics.com/podcast/neurotech-pub-episode-4-trading-spaces-dimensionality-reduction-for-neural-recordings

00:40 | Dimensionality Intro

04:42 | Podcast Start

07:50 | Janelia Research Campus

08:56 | Translational Neuroengineering Lab

09:35 | Stanford Neural Prosthetics Translational Lab

10:10 | Shenoy Lab

12:00 | Deep Brain Stimulation

12:57 | Chethan’s work on retinal prosthetics

15:00 | Immunology

15:20 | Jonathan Ruben

15:30 | Byron Yu

15:41 | Gatsby Computational Neuroscience Unit

18:00 | Joshua Tenenbaum

18:30 | Kording Lab at UPenn

18:46 | Neuromatch Academy

19:47 | Neuromatch Academy Q&A

21:21 | Dimensionality reduction for neural recordings

26:22 | The Curse of Dimensionality

30:11 | Principal Component Analysis

32:20 | Neural Firing as a Poisson Process

33:13 | Shared Variance Component Analysis

35:18 | Cross validation in large scale recording

38:29 | A theory of multineuronal dimensionality

39:10 | Random projections explained with visuals

42:24 | Correcting a reductionist bias

48:30 | Noise Correlations

49:35 | More on Noise Correlations

57:40 | LFADS

01:01:51 | What is a stationary process?

01:06:02 | Inferring single-trial neural population dynamics

01:06:46 | Task Specificity

01:07:28 | Lee Miller

01:08:18 | “I don’t know, I might be wrong”

01:13:16 | Neural Constraints on Learning

01:15:00 | A recent exciting paper from Yu and Batista Labs

01:19:01 | Hume on Causation

Want more?

Follow Paradromics & Neurotech Pub on Twitter

Follow Matt A, Konrad Kording, Chethan Pandarinath, and Carsen Stringer on Twitter.

  continue reading

20 つのエピソード

すべてのエピソード

×
 
Loading …

プレーヤーFMへようこそ!

Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。

 

クイックリファレンスガイド