Neuron:研究揭示海马在观察性空间学习中的一种可能新机制
本文由brainnews脑科学世界团队原创编译 , 转载请联系授权 。
观察学习及通过观察他人行为进行学习背后的神经环路机制尚不明确 。 海马位置细胞对位置学习十分重要 , 而且清醒状态下位置细胞活动模式会参与位置决策 。
在近期发表在NERUON上的研究“Observationallearningpromoteshippocampalremoteawakereplaytowardfuturerewardlocations”中 , 来自贝勒医学院的研究员们发现 , 当观察者大鼠(OB)在迷宫旁边的观察箱中通过观看演示者大鼠(Demo)的运动轨迹来学习如何跑迷宫时 , 观察者在自己跑迷宫时形成的位置细胞发放模式会在观察箱中远程重演 。
这种清醒状态下的远程重演无论是正向还是反向都倾向于标记迷宫中的奖励位置 , 而且反映了观察者未来在迷宫中的正确轨迹 。 相比之下 , 在没有演示者存在的控制组中 , 远程重演显著减少 , 对奖励点的偏好和对未来轨迹的预测也消失了 。
此研究认为 , 在观察学习中 , 社交观测指导了清醒状态下远程重演的内容 , 从而驱动位置决策 。
文章图片
研究员们首先设计了一个观察学习范式 。 OB首先待在与迷宫分离的观察箱中 , 同时一只已经被训练学会随机选择T迷宫的左右臂并前往位于臂尽头的奖励点舔水的Demo在迷宫中跑 。 观察箱左右侧也设有奖励点 , 当Demo随机选择一条路径并得到奖励后 , 如果OB在10s内向与Demo同侧的奖励点探嗅 , 则会获得舔水奖励 。
随后 , OB被放入T迷宫中间臂 , 假如它做出了与Demo刚才相同的选择并前往相同的奖励点 , 则会获得奖励 。 当OB连续两天选择正确率>70%时视为表现达标 。
文章图片
在训练前 , 所有OB会先在观察箱中观察Demo跑迷宫 , 但这个阶段它们本身不会真正进入迷宫探索 。 和预期相同 , OB在训练前对箱中两侧的奖励点为随机探嗅 , 而经过训练后 , 它们学会了探嗅和Demo的选择相同的一侧 , 甚至当Demo刚转向该侧还没到达奖励点时 , 它们就可以稍微提前的做出正确选择 。
为了验证这种观测学习是否需要Demo的存在 , 研究员们将Demo替换为可移动的物体或直接去掉(控制条件) , 则OB的表现显著变差 , 说明OB在观察箱的表现依赖于示范者的存在 。
文章图片
OB在T迷宫中的表现也同样符合预期 。 通过训练 , OB在迷宫中的轨迹从早期的随机选择变为训练后期的与Demo的选择相匹配(尽管Demo是随机选的) , 正确率显著升高(至86.7%) 。
将Demo存在的条件与控制条件(物体或Demo消失)下OB的表现进行比较 , 发现OB的正确率降至随机选择水平 , 说明OB在迷宫中的良好表现同样需要Demo的存在 。
文章图片
随后研究员们想知道OB的表现是否与海马CA1脑区相关 。 他们在实验组OB的背侧CA1注射神经毒性的NMDA来损伤该脑区 , 在控制组上注射溶媒 , 并比较两组在注射前后的行为表现 。
结果显示 , 实验组注射后在观察箱中的探嗅频率和首次探嗅的正确率都显著下降 , 在T迷宫中选择正确轨迹的比例也显著低于控制组 , 说明背侧CA1的损伤会显著损害OB在观察箱和迷宫中的表现 。
研究员们还额外发现 , 去掉Demo的声音和留下的气味不会影响OB的表现 , 而去掉OB的视觉信息会显著降低正确率 , 但仍高于随机情况 , 说明视觉信息对此学习非常重要 , 但当视觉被剥夺时 , 其他感官也会进行补偿 。
相关经验推荐
- 《最终幻想14》的社交研究,它究竟能为玩家带来什么?
- RNG训练赛86%胜率!Chovy所在的GG成手下败将,UZI:必须研究小虎
- 关于原神是否优秀,答案已随着时间揭示,新版本申鹤肯定再创新高
- 英国教授揭示人依兴趣分四大类:激发内驱力,应了解孩子个性特质
- “吃鸡”玩家打开研究所,发现SCAR-L逆袭,终于赢下M416一次
- 研究界一般将《第一次的亲密接触》的连载(1998年3-5月)和榕树下的建立(1997年1...|网文论︱Z世代网络文学写作中的主体性电子游戏逻辑
- 数据帝揭示原神抽卡,1000万抽印证,五星概率比公布的更高?
- 数据帝揭示原神抽卡,1000万抽印证,五星概率比公布的更高?
- Gen.G新阵容迎首秀,硬币哥爆料超威训练赛无敌?提前研究S12对手
- 一项绿色游戏研究报告把《集合啦!动物森友会》和《生化危机:村庄》列为最环保的游戏之一。|2021游戏碳排放研究《动物森友会》最少《英雄联盟》最