Skip to main content
Published Online:https://doi.org/10.1024/1016-264X/a000308

Zusammenfassung. Für das angemessene Fällen klinischer Urteile anhand neuropsychologischer Testverfahren ist die Güte der Testnormierung von zentraler Relevanz. Ziel der aktuellen Untersuchung ist es, unterschiedliche Klassifikationsmethoden für neuropsychologische Testleistungen zu vergleichen, um so die Güte der Normierung verbreiteter neuropsychologischer Testverfahren einschätzen zu können. Hierzu wurden zum einen verschiedene Auflösungsgrade (Einzeltests, Domänen, globales kognitives Funktionsniveau), zum anderen verschiedene Referenzsysteme (Vergleich zu publizierten Normen bzw. zu einer nach Alter und Bildung parallelisierten gesunden Kontrollgruppe) berücksichtigt. Vierzig Patient_innen mit einem intrakraniellen Tumor wurden präoperativ mit einer umfangreichen neuropsychologischen Testbatterie untersucht, wobei die Testverfahren den vier Domänen Exekutivfunktionen, Gedächtnis, Aufmerksamkeit/Arbeitstempo sowie visuell-räumliche Funktionen zugeordnet waren. Anhand der Einzeltests wurden mithilfe der publizierten Normwerte 83 % der Patient_innen als neuropsychologisch beeinträchtigt klassifiziert, auf Basis der Domänen 30 % und anhand des globalen aggregierten Leistungsniveaus 8 %. Damit wurden in allen drei Differenzierungsgraden signifikant weniger Patient_innen als kognitiv beeinträchtigt klassifiziert als anhand der parallelisierten Kontrollgruppe (98 %, 68 %, 30 %). Für 20 bis 40 % der Patient_innen stimmte zudem die Klassifikation anhand beider Ansätze nicht überein, wobei die höchste Korrespondenz auf Ebene der Einzeltests erreicht wurde. Unsere Ergebnisse sprechen insgesamt dafür, dass im deutschsprachigen Raum gebräuchliche Normen neuropsychologischer Tests zwar grundsätzlich über eine akzeptable Güte verfügen, wobei für die diagnostische Klassifikation von Testleistungen gleichzeitig jedoch der Einbezug ergänzender Informationsquellen, fundiertes neuropsychologisches Fachwissen sowie kritischer diagnostisch-methodischer Sachverstand unerlässlich sind. Darüber hinaus verdeutlichen unsere Befunde auch die Notwendigkeit einer differenzierten neuropsychologischen Untersuchung zur Abbildung des kognitiven Leistungsprofils neuroonkologischer Patient_innen.


Test standardization: The clinical examination of a neglected quality criterion in common neuropsychological test procedures

Abstract. The quality of test standardization is of central importance to making appropriate clinical judgments using neuropsychological testing procedures. The current study compares different classification methods for neuropsychological test performance to assess the quality of the standardization of common neuropsychological test procedures. For this purpose, we considered different degrees of resolution (individual tests, domains, global cognitive function level) and different reference systems (comparison with published norms or with a healthy control group parallelized according to age and education). We examined 40 patients with intracranial tumor preoperatively using an extensive neuropsychological test battery, whereby the test procedures were assigned to the four domains of executive functions, memory, attention/working pace and visuo-spatial functions. Based on the individual tests, 83 % of the patients were classified as neuropsychologically impaired using the published norm values, 30 % on the basis of the domains, and 8 % on the basis of the global aggregated performance level. In all three levels of differentiation, significantly fewer patients were classified as cognitively impaired than in the parallel control group (98 %, 68 %, 30 %, respectively). Moreover, for 20–40 % of the patients, the classification based on both approaches did not match, the highest correspondence being achieved at the level of individual tests. Overall, our results indicate that the standards of neuropsychological tests commonly used in the German-speaking countries are of acceptable quality, but that the inclusion of additional sources of information, sound neuropsychological expertise, and critical diagnostic-methodological knowledge is indispensable for the diagnostic classification of test services. Furthermore, our findings also illustrate the necessity of creating a differentiated neuropsychological examination to map the cognitive performance profile of neuro-oncological patients.

Literatur

  • Amelang, M. & Schmidt-Atzert, L. (2006). Psychologische Diagnostik und Intervention (4. Aufl.). Berlin: Springer. First citation in articleGoogle Scholar

  • Barrett, A. M., Eslinger, P. J., Ballentine, N. H. & Heilman, K. M. (2005). Unawareness of cognitive deficit (cognitive anosognosia) in probable AD and control subjects. Neurology, 64, 693–699. First citation in articleCrossrefGoogle Scholar

  • Beauducel, A. & Leue, A. (2014). Psychologische Diagnostik. Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Becker, J., Steinmann, E., Könemann, M., Gabske, S., Mehdorn, H. M. & Synowitz, M. et al. (2016). Cognitive screening in patients with intracranial tumors: Validation of the BCSE. Journal of Neuro-Oncology, 127, 559–567. First citation in articleCrossrefGoogle Scholar

  • Benton, A. L. & Sivian, A. B. (1978). Multilingual aphasia examination manual. Iowa City: University of Iowa. First citation in articleGoogle Scholar

  • Bowler, R. M., Shane, A. W., Schwarzer, R., Gocheva, V. V., Roels, H. A. & Kim, Y. et al. (2017). Validity of self-reported concentration and memory problems: Relationship with neuropsychological assessment and depression. Journal of Clinical and Experimental Neuropsychology, 39, 1026–1036. First citation in articleCrossrefGoogle Scholar

  • Bühner, M. (2011). Einführung in die Test- und Fragebogenkonstruktion (3., akt. u. erw. Aufl.). PS Psychologie. München: Pearson Studium. First citation in articleGoogle Scholar

  • Drechsler, R., Heinemann, D., Schelling, D. & Sturm, W. (Hrsg.). (2009). Handbuch neuropsychologischer Testverfahren 1: Aufmerksamkeit, Gedächtnis und exekutive Funktionen. Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Dwan, T. M., Ownsworth, T., Chambers, S., Walker, D. G. & Shum, D. h. K. (2015). Neuropsychological assessment of individuals with brain tumor: Comparison of approaches used in the classification of impairment. Frontiers in Oncology, 5, 1–8. First citation in articleCrossrefGoogle Scholar

  • Fastenau, P. S., Denburg, N. L. & Hufford, B. J. (1999). Adult norms for the Rey-Osterrieth Complex Figure Test and for supplemental recognition and matching trials from the Extended Complex Figure Test. Clinical Neuropsychologist, 13, 30–47. First citation in articleCrossrefGoogle Scholar

  • Folstein, M. F., Robins, L. N. & Helzer, J. E. (1983). The Mini-Mental State Examination. Archives of General Psychiatry, 40, 812. First citation in articleCrossrefGoogle Scholar

  • Gauggel, S. (2003). Grundlagen und Empirie der Neuropsychologischen Therapie: Neuropsychotherapie oder Hirnjogging? Zeitschrift für Neuropsychologie, 14, 217–246. First citation in articleLinkGoogle Scholar

  • Gauggel, S., Peleska, B. & Bode, R. K. (2000). Relationship between cognitive impairments and rated activity restrictions in stroke patients. Journal of Head Trauma Rehabilitation, 15, 710–723. First citation in articleCrossrefGoogle Scholar

  • Goebel, S., Fischer, R., Ferstl, R. & Mehdorn, H. M. (2009). Normative data and psychometric properties for qualitative and quantitative scoring criteria of the five-point test. Clinical Neuropsychologist, 23, 2–13. First citation in articleGoogle Scholar

  • Goebel, S., Kaup, L., Wiesner, C. D. & Mehdorn, H. M. (2013). Affective state and cognitive functioning in patients with intracranial tumors: Validity of the neuropsychological baseline assessment. Psycho Oncology, 22, 1316–1327. First citation in articleCrossrefGoogle Scholar

  • Härting, C., Markowitsch, H. J., Neufeld, H., Calabrese, P., Deisinger, K. & Kessler, J. (Hrsg). (2000). Wechsler Gedächtnistest – Revidierte Fassung (WMS-R). Bern: Huber. First citation in articleGoogle Scholar

  • Hendrix, P., Hans, E., Griessenauer, C. J., Simgen, A., Oertel, J. & Karbach, J. (2017). Neurocognitive status in patients with newly-diagnosed brain tumors in good neurological condition: The impact of tumor type, volume, and location. Clinical Neurology and Neurosurgery, 156, 55–62. First citation in articleCrossrefGoogle Scholar

  • Karnofsky, D. A. & Burchenal, J. H. (1949). The clinical evaluation of chemotherapeutic agents in cancer. In C. M. MacLeod (Ed.), Evaluation of Chemotherapeutic Agents. New York: Columbia University Press. First citation in articleGoogle Scholar

  • Lagemann, S. K., Cerhan, J. H., Locke, D. E. C., Anderson, K. S., Wu, W. & Brown, P. D. (2009). Comparing neuropsychological task to optimize brief cognitive batteries for brain tumor clinical trials. Journal of Neuro-Oncology, 96, 271–276. First citation in articleCrossrefGoogle Scholar

  • Leplow, B. & Friege, L. (1998). Eine Sozialformel zur Schätzung der prämorbiden Intelligenz. Zeitschrift für Klinische Psychologie, 27, 1–8. First citation in articleGoogle Scholar

  • Lezak, M. D., Howieson, D. B., Bigler, E. D. & Tranel, D. (2012). Neuropsychological assessment (5th ed.). Oxford: Oxford University Press. First citation in articleGoogle Scholar

  • Lienert, G. A. & Raatz, U. (1998). Testaufbau und Testanalyse (6. Aufl.). Weinheim: Beltz PsychologieVerlagsUnion. First citation in articleGoogle Scholar

  • Lin, N. U., Wefel, J. S., Lee, E. Q., Schiff, D., van den Bent, M. J. & Soffietti, R. et al. (2013). Challenges relating to solid tumour brain metastases in clinical trials, part 2: Neurocognitive, neurological, and quality-of-life outcomes. A report from the RANO group. Lancet Oncology, 14, 407–416. First citation in articleCrossrefGoogle Scholar

  • Löwe, B., Wahl, I., Rose, M., Spitzer, C., Glaesmer, H. & Wingenfeld, K. et al. (2010). A 4–item measure of depression and anxiety: Validation and standardization of the patient health questionnaire-4 (PHQ-4) in the general population. Journal of Affective Disorders, 122, 86–95. First citation in articleCrossrefGoogle Scholar

  • Nasreddine, Z. S., Phillips, N. A., Bédirian, V., Charbonneau, S., Whitehead, V. & Collin, I. et al. (2005). The Montreal Cognitive Assessment, MoCA: A brief screening tool for mild cognitive impairment. Journal of the American Geriatrics Society, 53, 695–699. First citation in articleCrossrefGoogle Scholar

  • Nicol, C., Ownsworth, T., Cubis, L., Nguyen, W., Foote, M. & Pinkham, M. B. (2019). Subjective cognitive functioning and associations with psychological distress in adult brain tumor survivors. Journal of Cancer Survivorship, 13, 653–662. First citation in articleCrossrefGoogle Scholar

  • Osterrieth, P. A. (1944). Le test de copie d’une figure complexe: Contribution à l’étude de l’aperception et de la mémoire. Archives de Psychologie, 30, 205–353. First citation in articleGoogle Scholar

  • Petermann, F. & Lepach, A. C. (2012): Wechsler Memory Scale – Fourth Edition, German Edition. Frankfurt: Pearson Assessment. First citation in articleGoogle Scholar

  • Poreh, A. & Poreh, M. (2020). Analysis of age-related cognitive functioning using reliability and time to Failure Rate Theory. Psychology & Neuroscience, 13, 76–92. First citation in articleCrossrefGoogle Scholar

  • Rasch, B., Friese, M., Hofmann, W. J. & Naumann, E. (2009). Quantitative Methoden 1. Einführung in die Statistik für Psychologen und Sozialwissenschaftler (4. Aufl.). Würzburg: Springer. First citation in articleGoogle Scholar

  • Regard, M., Strauss, E. & Knapp, P. (1982). Children’s production on verbal and non-verbal fluency tasks. Perceptual and Motor Skills, 55, 839–844. First citation in articleCrossrefGoogle Scholar

  • Reitan, R. M. (1958). Validity of the Trail Making Test as an indicator of organic brain damage. Perceptual and Motor Skills, 8, 271–276. First citation in articleCrossrefGoogle Scholar

  • Schellig, D., Heinemann, D., Schächtele, B. & Sturm, W. (Hrsg.). (2018). Handbuch neuropsychologischer Testverfahren: Band 2. Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Schellig, D., Heinemann, D., Schächtele, B. & Sturm, W. (Hrsg.). (2019). Handbuch neuropsychologischer Testverfahren: Band 3. Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Talacchi, A., Santini, B., Savazzi, S. & Gerosa, M. (2010). Cognitive effects of tumor and surgical treatment in glioma patients. Journal of Neuro-Oncology, 103, 541–549. First citation in articleCrossrefGoogle Scholar

  • Tombaugh, T. N. (2004). Trail Making Test A and B: Normative data stratified by age and education. Archives of Clinical Neuropsychology, 19, 203–214. First citation in articleCrossrefGoogle Scholar

  • Tombaugh, T. N., Kozak, J. & Rees, L. (1999). Normative data stratified by age and education for two measures of verbal fluency: FAS and animal naming. Archives of Clinical Neuropsychology, 14, 167–177. First citation in articleGoogle Scholar

  • Tucha, O., Smely, C., Preier, M. & Lange, K. W. (2000). Cognitive deficits before treatment among patients witch brain tumors. Neurosurgery, 47, 324–334. First citation in articleCrossrefGoogle Scholar

  • Warrington, e. K. & James, M. (1992). Testbatterie für Visuelle Objekt- und Raumwahrnehmung (VOSP): Handanweisung. Suffolk: Thames Valley Test Company. First citation in articleGoogle Scholar

  • Wefel, J. S., Vardy, J., Ahles, T. & Schagen, S. B. (2011). International Cognition and Cancer Task Force recommendations to harmonise studies of cognitive function in patients with cancer. Lancet Oncology, 12, 703–708. First citation in articleCrossrefGoogle Scholar