000964006 001__ 964006 000964006 005__ 20241120133437.0 000964006 0247_ $$2HBZ$$aHT030338348 000964006 0247_ $$2Laufende Nummer$$a42500 000964006 0247_ $$2datacite_doi$$a10.18154/RWTH-2023-08096 000964006 037__ $$aRWTH-2023-08096 000964006 041__ $$aEnglish 000964006 082__ $$a570 000964006 1001_ $$0P:(DE-588)1299971539$$aNabbefeld, Gerion$$b0$$urwth 000964006 245__ $$aSignatures of cortical multisensory integration in mice performing a novel visuotactile evidence accumulation task$$cvorgelegt von Gerion Nabbefeld, M.Sc.$$honline 000964006 246_3 $$aSignaturen kortikaler multisensorischer Integration in Mäusen, die einen neuen visuell-taktilen Evidenzakkumulationsversuch ausführen$$yGerman 000964006 260__ $$aAachen$$bRWTH Aachen University$$c2022 000964006 260__ $$c2023 000964006 300__ $$a1 Online-Ressource : Illustrationen, Diagramme 000964006 3367_ $$02$$2EndNote$$aThesis 000964006 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd 000964006 3367_ $$2BibTeX$$aPHDTHESIS 000964006 3367_ $$2DRIVER$$adoctoralThesis 000964006 3367_ $$2DataCite$$aOutput Types/Dissertation 000964006 3367_ $$2ORCID$$aDISSERTATION 000964006 502__ $$aDissertation, RWTH Aachen University, 2022$$bDissertation$$cRWTH Aachen University$$d2022$$gFak01$$o2022-09-15 000964006 500__ $$aVeröffentlicht auf dem Publikationsserver der RWTH Aachen University 2023 000964006 5203_ $$aEine Vielzahl an wissenschaftlichen Arbeitsgruppen konzentriert sich darauf zu erforschen, wie das Gehirn Informationen verarbeitet, die von unseren individuellen Sinnen stammen. Allerdings sind die neuronalen Mechanismen, die die mühelose Integration unisensorischer Eingangssignale in multisensorische Wahrnehmungen ermöglichen, nach wie vor nicht gut verstanden. Um zu untersuchen, wie neuronale Schaltkreise visuelle und taktile Informationen integrieren, haben wir ein multisensorisches Diskriminationsparadigma für kopffixierte Mäuse entwickelt. In selbigem werden zwei Sequenzen von visuellen, taktilen oder kombinierten visuell-taktilen Reizen auf beiden Seiten der Maus präsentiert. Anschließend müssen die Mäuse die Zielseite mit der höheren Rate an Reizen anzeigen, um eine Wasserbelohnung zu erhalten. Um die Integration der sensorischen Informationen über das gesamte Stimulationsintervall zu gewährleisten, wurde vor der Möglichkeit zu antworten eine sogenannte „Delay“-Periode, also eine kurze Verzögerung, eingefügt. Alle getesteten Mäuse erreichten in sämtlichen Konditionen eine hohe Erfolgsrate, mit einer verbesserten Leistung in der multisensorischen Kondition. Dieser Verhaltensversuch gab uns die Möglichkeit die neuronalen Schaltkreise zu studieren, die es den Mäusen erlauben visuelle und taktile Informationen synergetisch zu nutzen um den Verhaltensversuch zu lösen. Im Anschluss nutzten wir Weitfeldbildgebung, um die kortikale Aktivität während des Verhaltensversuches zu messen. Hierzu wurden transgene Mäuse verwendet, die den Ca2+-Indikator GCaMP6s in allen kortikalen, exzitatorischen Zellen exprimieren. Dadurch haben wir festgestellt, dass multisensorische Reize eine stärkere neuronale Aktivität hervorrufen als unisensorische Reize. Am deutlichsten wurde dies in dem rostrolateralen Assoziationsareal RL und in Teilen des medialen Frontalkortex (mFC), die zuverlässig sowohl auf visuelle als auch auf taktile Reize reagierten. Um die sensorischen Antworten besser von zeitgleich stattfindender versuchs- oder verhaltensbezogener Aktivität zu isolieren, verwendeten wir ein lineares Kodierungsmodell. Die Einbeziehung eines multisensorischen Interaktionsterms in diesem Modell verbesserte die Prognosen der Hirnaktivität signifikant. Mit diesem Ansatz konnten wir zwei Hauptmerkmale der hervorgerufenen sensorischen Antworten in Abhängigkeit der Modalität des Reizes identifizieren. Zum einen fanden wir inter-modale Inhibition, wenn Mäuse unisensorische Versuchsdurchläufe absolvierten. Hier fanden wir, neben den exzitatorischen Reaktionen im entsprechend stimulierten sensorischen Kortex, auch eine Inhibition der Aktivität im jeweils anderen sensorischen Kortex. Zum anderen, fanden wir zusätzliche, superadditive multisensorische Antworten, die über die lineare Kombination der unisensorischen Antworten hinaus gingen. Dies ist vermutlich begründet in der Abwesenheit der inter-modalen Inhibition und einer erhöhten Aktivierung der Areale RL und mFC. Um zu verstehen, wie sensorische Informationen die Formation von Verhaltensentscheidungen lenken, haben wir zunächst untersucht, welche Hirnareale Aktivität aufweisen, die die Zielseite zuverlässig widerspiegelt. Hierbei zeigte sich, dass der mediale Motorkortex die Zielseite in taktilen Versuchen zuverlässiger widerspiegelte, während die höheren visuellen Areale diese in visuellen Versuchen verlässlich reflektierten. Bei multisensorischen Versuchen spiegelten beide Regionen die Zielseite zuverlässig wider, was wahrscheinlich zu einer höheren Sicherheit der Tiere und einer besseren Erfolgsrate in multisensorischen Versuchen führte. Schließlich identifizierten wir neuronale Aktivität, die im Zusammenhang mit den Entscheidungen der Tiere stand, mit Hilfe eines entsprechenden Decoders. Solche Aktivitätsmuster fanden wir im anterolateralen Motorkortex (ALM) sowie weiteren Regionen des primären motorischen und somatosensorischen Kortex, welche in Verbindung mit Leckbewegungen der Tiere stehen. Mit diesem Ansatz konnten wir keine eindeutigen modalitätsspezifischen Unterschiede feststellen, was darauf hindeutet, dass dieselben neuronalen Schaltkreise verantwortlich sind die Entscheidungen in allen Modalitätskonditionen zu fällen. Unsere Ergebnisse zeigen, dass multisensorische Stimulation weitreichende kortikale Aktivierung verursacht, welche zu einer verbesserten Erfolgsrate der Mäuse führt. Hierbei fanden wir inter-modale Inhibition in unisensorischen Versuchen, sowie superadditive multisensorische Integration in multisensorischen Versuchen, vor allem in den Arealen RL und mFC, was die Mäuse wahrscheinlich bei der Durchführung der jeweiligen Konditionen unterstützt. Sensorische Informationen werden dann über die Dauer der Stimulation in den sekundären visuellen Arealen und im medialen Motorkortex akkumuliert und anschließend im sekundären Motorkortex zusammengeführt, wo modalitätsunspezifische Entscheidungen getroffen werden. Diese Ergebnisse geben uns ein viel besseres Verständnis darüber wie das Gehirn sensorische Informationen verarbeitet und generalisiert um das Verhalten zu leiten.$$lger 000964006 520__ $$aMuch effort has been focused on studying how the brain processes information from our individual senses. However, the neural mechanisms, that allow the effortless integration of unisensory inputs into multisensory percepts, are largely unknown. To study how neural circuits integrate visual and tactile information, we developed a multisensory discrimination task for head-fixed mice. Here, two sequences of visual, tactile or combined visuotactile stimuli are presented on both sides of the mouse, which has to indicate the higher-rate target-side to obtain a water reward. To ensure integration of sensory information over the entire stimulus period, a short delay was added before the response. Mice achieved high accuracy in all conditions, with improved performance in the multisensory condition. This behavioral task gave us the opportunity to investigate the neural circuits that allow mice to synergistically use both the visual and tactile sensory information to solve the behavioral task. We then used widefield imaging to measure cortex-wide activity in transgenic mice expressing the Ca2+-indicator GCaMP6s in all cortical excitatory neurons. Here, we found that multisensory stimuli evoked higher neuronal activity compared to unisensory stimulation. This was most evident in the rostrolateral association area RL and parts of medial frontal cortex (mFC), which reliably responded to both visual and tactile stimuli. To better isolate sensory responses from co-occurring task- or behavior-related activity, we used a linear encoding model. Including a multisensory interaction-term significantly improved the predictions of cortical activity. With this approach we identified two key features of sensory evoked responses, depending on the stimulus condition. First, in unisensory trials mice display cross-modal inhibition. Here, in addition to the main sensory responses in the corresponding sensory cortex, robust inhibition of activity in the non-matching sensory cortex was found. Second, we found additional superadditive responses in multisensory trials, likely representing the absence of cross-modal inhibition as well as increased activity in areas RL and mFC. To understand how sensory information is used to guide behavioral decisions, we first investigated which brain areas displayed activity that reliably reflected the target stimulus side. Here, the medial motor cortex more faithfully reflected the target-side in tactile trials, while secondary visual areas were more reliable in visual trials. In multisensory trials, both regions accurately reflected the target-side, likely resulting in higher certainty and improved performance in multisensory trials. Finally, using a choice-decoder we identified choice-related neural activity in the anterolateral motor cortex (ALM), as well as in licking-related regions of the primary motor and somatosensory cortex. With this approach, we found no clear modality-specific differences, suggesting that the same neural circuits form decisions in all stimulus conditions. Our results demonstrate that multisensory stimulation cause widespread cortical activation in mice, which leads to improved task performance. Here, cross-modal inhibition in unisensory trials and superadditive multisensory integration especially in RL and mFC were found in multisensory trials, likely aiding mice in performing the individual task condition. Sensory information is then accumulated over the stimulus period in secondary visual areas and medial motor cortex and this information converges in the secondary motor cortex to form modality-unspecific decisions. These findings give us a much deeper understanding of how the brain processes and generalizes sensory information in order to guide behavioral decisions.$$leng 000964006 536__ $$0G:(GEPRIS)368482240$$aGRK 2416 - GRK 2416: MultiSenses-MultiScales: Neue Ansätze zur Aufklärung neuronaler multisensorischer Integration (368482240)$$c368482240$$x0 000964006 588__ $$aDataset connected to Lobid/HBZ 000964006 591__ $$aGermany 000964006 653_7 $$abehavioral neuroscience 000964006 653_7 $$adecision-making 000964006 653_7 $$amultisensory integration 000964006 653_7 $$awidefield imaging 000964006 7001_ $$0P:(DE-82)IDM01906$$aKampa, Björn M.$$b1$$eThesis advisor$$urwth 000964006 7001_ $$0P:(DE-82)IDM05817$$aMusall, Simon Fritjof$$b2$$eThesis advisor$$urwth 000964006 8564_ $$uhttps://publications.rwth-aachen.de/record/964006/files/964006.pdf$$yOpenAccess 000964006 8564_ $$uhttps://publications.rwth-aachen.de/record/964006/files/964006_source.docx$$yRestricted 000964006 909CO $$ooai:publications.rwth-aachen.de:964006$$pdnbdelivery$$pdriver$$pVDB$$popen_access$$popenaire 000964006 9141_ $$y2022 000964006 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess 000964006 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-588)1299971539$$aRWTH Aachen$$b0$$kRWTH 000964006 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM01906$$aRWTH Aachen$$b1$$kRWTH 000964006 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM05817$$aRWTH Aachen$$b2$$kRWTH 000964006 9201_ $$0I:(DE-82)162320_20140620$$k162320$$lLehr- und Forschungsgebiet Molekulare und systemische Neurophysiologie$$x0 000964006 9201_ $$0I:(DE-82)160000_20140620$$k160000$$lFachgruppe Biologie$$x1 000964006 961__ $$c2023-09-11T10:39:28.641929$$x2023-08-21T12:15:06.340511$$z2023-09-11T10:39:28.641929 000964006 980__ $$aI:(DE-82)160000_20140620 000964006 980__ $$aI:(DE-82)162320_20140620 000964006 980__ $$aUNRESTRICTED 000964006 980__ $$aVDB 000964006 980__ $$aphd 000964006 9801_ $$aFullTexts