Navigation auf uzh.ch

Suche

Psychologisches Institut Psychologische Methodenlehre, Evaluation und Statistik

Themen für Bachelorarbeiten

Übersicht der Bachelorarbeitsthemen dieser Professur

Durch Klick auf die einzelnen Themen werden die Detail-Informationen angezeigt.

  • Themenvergabe durch Präsenztermin
    Im HS 24 werden ausnahmsweise keine Themen für Bachelorarbeiten angeboten.
    Betreuungsperson der Bachelorarbeit: Prof. Dr. C. Strobl

 


offen:

 


vergeben:

  • Visualizing Longitudinal Data

    Beschreibung: Description: Recent years have seen an explosion of longitudinal data within psychology and related fields, along with many developments in the analysis of such data. As the complexity of both data and analytic methods increase, basic descriptive output in the form of visualisations becomes ever more important -- sometimes as a means of gaining an initial exploratory understanding of a phenomenon or dataset, and sometimes to gain understanding of a particular analytic method. The intent of this work is to provide an initial overview of visualisation for longitudinal data, considering the goal of visualisation (e.g. visualize a trajectory of anger over time in one subject, or visualise the relation between mathematics and language skills over development), and various approaches available. Specific sub-topics (e.g., visualizing longitudinal model fit) are also possible to consider. Literature: Xu, T. L., De Barbaro, K., Abney, D. H., & Cox, R. F. (2020). Finding structure in time: Visualizing and analyzing behavioral time series. _Frontiers in Psychology_, _11_, 1457. https://www.frontiersin.org/articles/10.3389/fpsyg.2020.01457/full West, V. L., Borland, D., & Hammond, W. E. (2015). Innovative information visualization of electronic health record data: a systematic review. _Journal of the American Medical Informatics Association_, _22_(2), 330-339. https://academic.oup.com/jamia/article/22/2/330/695186
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 27.11.2023
    Kontakt: Charles Driver, E-Mail

    Status: vergeben (erfasst / geändert: 30.04.2024)
  • Verwendung von Simulationsstudien in der Psychologie

    Beschreibung: In der psychologischen Methodenlehre werden vorwiegend Simulationsstudien eingesetzt, um die Eigenschaften von statistischen Verfahren zu untersuchen. Diese Studien treten dabei an die Stelle von empirischen Studien, welche sonst in vielen Bereichen der Psychologie als Forschungsmethode eingesetzt werden. Die Grundidee besteht darin, zunächst per Computer (z.B. über die Software R) künstliche Datensätze mit bekannten Eigenschaften zu generieren, und dann das statistische Verfahren, welches untersucht werden soll, auf diese Daten anzuwenden. Da die Eigenschaften der künstlichen Daten (z.B. ob Mittelwertsunterschiede vorliegen) bekannt sind, kann untersucht werden, ob die Schlussfolgerungen des zu untersuchenden statistischen Verfahrens (z.B. eines Tests zum Erkennen von Mittelwertsunterschieden) richtig sind. Diese Literaturarbeit soll zunächst einen Überblick geben, wann Simulationsstudien anstelle von empirischen Studien eingesetzt werden können, und wie solche Studien grundsätzlich aufgebaut sind. Bei Bedarf können weiterführende Themen, wie z.B. Software zur Durchführung von Simulationsstudien oder konkrete Beispiele für solche Simulationsstudien behandelt werden. Literatur: Boulesteix, A. L., Groenwold, R. H., Abrahamowicz, M., Binder, H., Briel, M., Hornung, R., ... & Sauerbrei, W. (2020). Introduction to statistical simulations in health research. BMJ open, 10(12), e039921. http://dx.doi.org/10.1136/bmjopen-2020-039921 Sigal, M. J., & Chalmers, R. P. (2016). Play It Again: Teaching Statistics With Monte Carlo Simulation. Journal of Statistics Education, 24(3), 136-156. https://doi.org/10.1080/10691898.2016.1246953
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 22.06.2023
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 30.04.2024)
  • The link between psychological theories and statistical models of data

    Beschreibung: One common argument throughout psychology's replication crisis has been the need for better theory. Where should such theory come from however? This literature review will center around works examining the link between theory, statistical models, and data, and the iterative process whereby each improves as a result of developments in the others. The thesis aims to contribute to a more refined comprehension of the interplay between theory and statistical modeling in psychology, informing future research endeavors in this domain. Specific sub-topics such as theories of development, psychopathology, etc, are possible. Literature: Borsboom, D., van der Maas, H. L., Dalege, J., Kievit, R. A., & Haig, B. D. (2021). Theory construction methodology: A practical framework for building theories in psychology. _Perspectives on Psychological Science_, _16_(4), 756-766. https://journals.sagepub.com/doi/pdf/10.1177/1745691620969647 Fried, E. I. (2020). Theories and models: What they are, what they are for, and what they are about. _Psychological Inquiry_, _31_(4), 336-344. https://www.tandfonline.com/doi/full/10.1080/1047840X.2020.1854011
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 27.11.2023
    Kontakt: Charles Driver, E-Mail

    Status: vergeben (erfasst / geändert: 30.04.2024)
  • Methoden der explorativen Faktorenanalyse

    Beschreibung: Faktorenanalysen sind wichtige Datenanalyseverfahren für viele Bereiche der Psychologie, z.B. um die dimensionale Struktur von Phänomenen wie Persönlichkeit zu untersuchen, oder die Eigenschaften von Tests und Fragebögen zu prüfen. Für die Teilschritte explorativer Faktorenanalysen (z.B. Entscheidung über die Faktorenanzahl, Extraktion, Rotation) gibt es eine Vielzahl unterschiedlicher Methoden. Die Literaturarbeit soll einen umfassenden Ueberblick über verfügbare Methoden geben, und dann deren Eignung für empirische Anwendungen in der Psychologie auf der Basis methodischer Literatur kritisch diskutieren. Möglicher Einstieg: Preacher, K.J., & MacCallum, R.C. (2003). Repairing Tom Swift's electric factor analysis machine. Understanding Statistics, 2, 13-43. doi:10.1207/S15328031US0201_02
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 15.06.2023
    Kontakt: Carolina Fellinghauer, E-Mail

    Status: vergeben (erfasst / geändert: 30.04.2024)
  • Anwendungen von Machine Learning zur Textanalyse in der Psychologie

    Beschreibung: In vielen Bereichen der Psychologie werden geschriebene und gesprochene Texte analysiert, um daraus Schlussfolgerungen für psychische Prozesse und Eigenschaften zu ziehen. Fortschritte im Bereich des Machine Learning, welche in den letzten Jahren erzielt wurden, ermöglichen es, Teile dieser Textanalysen weitgehend automatisiert durchzuführen. Die vorliegende Arbeit soll zunächst einen groben Überblick über die zentralen Schritte einer solchen Textanalyse geben. Bei Bedarf können darüber hinaus weiterführende Themen, wie geeignete Softwarepakete oder konkrete Anwendungen der Machine-Learning gestützten Textanalyse in der Psychologie behandelt werden. Literatur: Kennedy, B., Ashokkumar, A., Boyd, R. L., & Dehghani, M. (2021). Text Analysis for Psychology: Methods, Principles, and Practices. https://doi.org/10.31234/osf.io/h2b8t. Preprint verfügbar unter: https://psyarxiv.com/h2b8t/ Kjell, O., Giorgi, S., & Schwartz, H. A. (2023). The text-package: An R-package for analyzing and visualizing human language using natural language processing and transformers. Psychological Methods. https://doi.org/10.1037/met0000542. Preprint verfügbar unter: https://psyarxiv.com/293kt/
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 22.06.2023
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 30.04.2024)
  • Streit in der Statistik: Bayesianische vs. frequentistische Analysemethoden

    Beschreibung: Die Bayesianische Statistik verbreitet sich als Alternative zur "klassischen" frequentistischen Statistik in vielen Forschungsgebieten, so auch in der Psychologie. Dabei machen besonders AnhängerInnen der Bayesianischen Statistik wiederholt auf angebliche Defizite in frequentistischen Ansätzen aufmerksam und empfehlen als Gegenmittel die Verwendung von Bayesianischen Methoden. In dieser Literaturarbeit soll beschrieben werden, was die grundlegenden Prinzipien der Bayesianischen Statistik sind, und wie sich diese von der frequentistischen Statistik unterscheidet. Darauf aufbauend soll die Anwendung von Bayesianischen Methoden erörtert werden. Schliesslich soll kritisch diskutiert werden, ob es in der Frage "Bayesianisch oder frequentistisch?" einen klaren Sieger gibt. Einstiegsartikel: Berger, J. O., & Berry, D. A. (1988). Statistical Analysis and the Illusion of Objectivity. American Scientist, 76(2), 159?165. http://www.jstor.org/stable/27855070 Hinweis: Einführungen in die Bayesianische Statistik finden sich besonders in Lehrbüchern und weniger in Fachartikeln. Deshalb sollen in dieser Bachelorarbeit bewusst auch Bücher als Quellen verwendet werden.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 21.06.2023
    Kontakt: Yannick Rothacher, E-Mail

    Status: vergeben (erfasst / geändert: 27.11.2023)
  • Analysemethoden für Daily Diary oder Daily Intervention Studies

    Beschreibung: Durch die Verfügbarkeit von modernen Erhebungsmethoden, zum Beispiel über Mobile Apps, werden Daily Diary sowie Daily Intervention Studies in der Psychologie immer häufiger. Mithilfe solcher Datenerhebungsmethoden können Veränderungen in abhängigen Variablen über die Zeit oder den Verlauf einer Behandlung erfasst und analysiert werden. In der Bachelorarbeit sollen Analysemethoden für Daten aus Daily Diary oder Daily Intervention Studies klassischen, statistischen Methoden, wie zum Beispiel der ANOVA oder der multiple Regression, gegenübergestellt und kritisch diskutiert werden. Literatur: Lischetzke, T., Reis, D., & Arndt, C. (2015). Data-analytic strategies for examining the effectiveness of daily interventions. Journal of Occupational and Organizational Psychology, 88, 587?622. https://doi.org/10.1111/joop.12104
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 16.06.2021
    Kontakt: Mirka Henninger, E-Mail

    Status: vergeben (erfasst / geändert: 27.11.2023)
  • Fragwürdige Forschungspraktiken in der psychologischen Forschung und Empfehlungen zur Überwindung der aktuellen Replikationskrise

    Beschreibung: Im letzten Jahrzehnt wurde der Ruf der psychologischen Forschung schwer beschädigt. Mehrere psychologische Effekte erwiesen sich als nicht reproduzierbar. Obwohl es einige Fälle von unredlicher Datenmanipulation gegeben hat, ist die so genannte Replikationskrise in der Psychologie hauptsächlich auf fragwürdige Forschungspraktiken zurückzuführen. Ziel dieser Bachelorarbeit ist es, fragwürdige Forschungspraktiken in der psychologischen Forschung kritisch zu diskutieren und Empfehlungen zur Überwindung der Replikationskrise zu beschreiben. Einstiegsartikel: Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349, aac4716.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 21.06.2023
    Kontakt: Yannick Rothacher, E-Mail

    Status: vergeben (erfasst / geändert: 27.11.2023)
  • Fehlende Werte in psychologischer Forschung: Vor- und Nachteile verschiedener Lösungsansätze

    Beschreibung: In psychologischen Studien ergeben sich häufig fehlende Werte, weil Studienteilnehmer:innen Fragen unabsichtlich oder bewusst nicht beantworten oder Messungen verpassen. Mit fehlenden Werten adäquat umzugehen ist meist eine Herausforderung für Forschende. Die Bachelorarbeit soll verschiedene Lösungansätze für den Umgang mit fehlenden Werten betrachten, wie z.B. listwise oder pairwise deletion, Imputationsverfahren (wie Mittelwertsimputation, multiple Imputation). In der Bachelorarbeit sollen diese Ansätze vorgestellt, verglichen und ihre Anwendungsmöglichkeiten in der Psychologie kritisch diskutiert werden. Literatur: Joost R. van Ginkel, Marielle Linting, Ralph C. A. Rippe & Anja van der Voort (2020). Rebutting existing misconceptions about multiple imputation as a method for handling missing data. Journal of Personality Assessment, 102, 297-308. https://doi.org/10.1080/00223891.2018.1530680
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 06.06.2023
    Kontakt: Mirka Henninger, E-Mail

    Status: vergeben (erfasst / geändert: 06.11.2023)
  • Theorie und Praxis der Poweranalyse in der Psychologie

    Beschreibung: Beschreibung: Eine zentrale Fragestellung bei der Planung empirischer Studien in der Psychologie besteht darin, welche Datengrundlage notwendig ist, um zuverlässig zwischen Null- und Alternativhypothesen entscheiden zu können. Ein wichtiges Werkzeug dafür ist die Poweranalyse, welche für statistische Verfahren wie z.B. den t-Test den notwendigen Stichprobenumfang für die Entscheidung zwischen Null- und Alternativhypothese berechnen hilft. Eine wichtige Grösse bei der Durchführung der Poweranalyse ist dabei die Effektstärke, welche anzeigt, wie stark Null- und Alternativhypothese voneinander abweichen. In dieser Bachelorarbeit sollen folgende Themen behandelt werden: a) Es soll ein Überblick über die theoretischen Grundlagen der Poweranalyse gegeben werden. b) Es soll beschrieben werden, welche Methoden es zur Durchführung der Poweranalyse gibt. c) Es soll ein Überblick über relevante Softwarepakete zur Durchführung der Poweranalyse gegeben werden; auf technische Details der Software soll dabei aber nicht eingegangen werden. Literatur: Cumming, G. (2014). The New Statistics: Why and How. Psychological Science, 25(1), 7?29. https://doi.org/10.1177/0956797613504966 (Ein Überblick, wie Poweranalyse bei der Studienplanung verwendet wird) Faul, F., Erdfelder, E., Lang, AG. et al. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39(2), 175?191. https://doi.org/10.3758/BF03193146 (Ein Überblick zu einem weit verbreiteten Softwarepaket zur Poweranalyse)
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 21.11.2022
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Paradoxe Statistik

    Beschreibung: Statistik ist häufig nicht einfach. Die Einschätzung von Unsicherheit und Wahrscheinlichkeit fällt dem Menschen scheinbar von Natur aus schwer und der mathematische Umgang damit in der Statistik ebenso. Dadurch ist es vielleicht nicht überraschend, dass es in der Statistik grundlegende Probleme gibt, deren Lösung sich häufig nicht mit der eigenen Intuition vertragen und selbst bei erfahrenen StatistikerInnen zu Verwirrung führen können. Ein bekanntes Beispiel dazu ist das Simpsonsche Paradoxon, welches bereits in einem einfachen Vergleich zwischen zwei Gruppen auftreten kann. Es gibt aber noch weitere Beispiele für missverstandene Statistik, wie z.B. die "Hot hand" im Baskettball oder die "Gambler's fallacy" im Casino. In dieser Literaturarbeit sollen, ausgehend vom Simpsonschen Paradoxon, solche Situationen exemplarisch veranschaulicht werden und die Frage bearbeitet werden, was für eine Rolle solche Probleme in der Forschung spielen können. Zudem soll auf mögliche Lösungsansätze (sowohl statistische als auch didaktische) eingegangen werden. Möglicher Einführungsartikel: Bickel, B., Hammel, E., & O'Connell, J.W. (1975). Is there a sex bias in graduate admissions?. Science, 187, 398-404.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 16.06.2021
    Kontakt: Yannick Rothacher, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Prädiktorenauswahl in Regressionsmodellen

    Beschreibung: In vielen psychologischen Bereichen geht es darum, Zielgrössen durch Prädiktorvariablen möglichst gut vorherzusagen. Wenn viele potenzielle Prädiktorvariablen in Frage kommen und es keine theoretischen Gründe gibt, die nur ganz bestimmte Prädiktorvariablen nahelegen, werden in Anwendungssituationen oft automatische Verfahren der Auswahl von Prädiktorvariablen verwendet, um mit möglichst wenigen Prädiktoren eine möglichst gute Vorhersage der Zielgrösse zu erreichen, beispielsweise die sog. "Stepwise"-Methode in multiplen Regressionsmodellen. Die Literaturarbeit soll einen Überblick über verschiedene existierende Möglichkeiten zur Selektion von Prädiktorvariablen in Regressionsmodellen geben und Herausforderung der reinen statistischen Herangehensweise kritisch diskutieren. Möglicher Einstieg: Heinze, G., Wallisch, C., & Dunkler, D. (2018). Variable selection - A review and recommendations for the practicing statistician. Biometrical journal. Biometrische Zeitschrift, 60(3), 431?449. https://doi.org/10.1002/bimj.201700067
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 09.11.2021
    Kontakt: Carolina Fellinghauer, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Messung von psychologischen Eigenschaften und Fähigkeiten: Die Rolle der Summenscores als suffiziente Statistiken im Rasch Modell

    Beschreibung: "The best estimate of the ability parameter for a person can be derived from his raw score only" G. Rasch (1980). Das Rasch Modell aus der probabilistischen Testtheorie wird heute standardmässig zur Validierung von neuen (und z.T. auch zur Nachträglichen Validierung von bestehenden) psychologischen Tests verwendet. Eine wichtige Eigenschaft des Rasch Modells ist die sogenannte Suffizienz, die besagt, dass die Anzahl gelöster Items (d.h. Anzahl Punkte, die die Person in einem Test erzielt hat, auch genannt Summenscore oder Total Score) eine suffiziente (auf Deutsch grob übersetzbar mit: erschöpfende, ausreichende) Statistik für die Parameterschätzung der latenten Variable (Fähigkeit oder andere psychologische Eigenschaft) darstellt. Aus psychologischer Sicht klingt die Suffizienz zunächst wie eine obskure statistische Eigenschaft, sie ist aber inhaltlich zentral für die Messeigenschaften von psychologischen Tests. In dieser Arbeit soll deshalb erläutert werden, welche Bedeutung die Suffizienz in der psychologischen Testtheorie hat. Was sind die Vorteile der statistischen Suffizienz und wo liegen ihre Grenzen in der Praxis? Konkrete Beispiele aus der aktuelleren Forschung unterstützen die verschiedenen Argumente und beschreiben Situationen wo die statistische Suffizienz als theoretische Annahme an ihre Grenzen stösst und komplexere Ansätze aus der probabilistischen Testtheorie besser angebracht sein können. Literatur: Strobl, C. (2012). Das Rasch-Modell. Eine verständliche Einführung für Studium und Praxis. 2. Erweiterte Auflage. Rainer Hampp Verlag, München. Hays R.D., Morales, L.S., Reise S.P. (2000). Item Response Theory and Health Outcome Measurement in the 21st Century. Med Care 38 (9 Suppl): II28-II42. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1815384/pdf/nihms14476.pdf
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 14.01.2020
    Kontakt: Carolina Fellinghauer, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Interpretationsmethoden für Machine Learning Verfahren: Ein Blick in die Black-Box?

    Beschreibung: In den letzten Jahren wurden Machine Learning Verfahren, wie zum Beispiel Random Forests oder Neural Networks, auch in der Psychologie immer populärer. Im Gegensatz zu klassischen, statistischen Verfahren, wie zum Beispiel der linearen oder logistischen Regression können über Machine Learning Verfahren die Zusammenhänge zwischen Variablen nicht direkt und anschaulich beschrieben werden (sogenannte ?Black-Box?). Um Machine Learning Verfahren interpretierbarer zu machen, wurden daher verschiedene Interpretationsmethoden vorgeschlagen, die beispielsweise den Zusammenhang zwischen Variablen graphisch veranschaulichen. Neben einer kurzen Vorstellung von Random Forests oder Neural Networks, sollen in der Bachelorarbeit zwei bis drei Interpretationsmethoden für Machine Learning Verfahren, vorgestellt, in Beziehung gesetzt und kritisch diskutiert werden. Literatur: Molnar, C. (2021). Model-Agnostic Methods. In: Interpretable Machine Learning. A Guide for Making Black Box Models Explainable. https://christophm.github.io/interpretable-ml-book/
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 16.06.2021
    Kontakt: Mirka Henninger, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Ein Überblick zu Anwendungen von Machine Learning in der Psychologie

    Beschreibung: Beschreibung: Modelle des Machine Learning werden seit einigen Jahren vermehrt in der Psychologie verwendet. Man kann hier viele Anwendungsgebiete unterscheiden. Zum Beispiel wird Machine Learning für Regressions- und Klassifikationsaufgaben, d.h. die Vorhersage von metrischen und kategorialen Variablen, beim Vorliegen grosser Datensätze verwendet. Eine zweite Anwendung ist in der Test- und Fragebogenkonstruktion. Eine dritte Anwendung ist in der Analyse von Text- und Bilddaten im Zuge psychologischer Forschung. In dieser Arbeit sollen zwei Ziele verfolgt werden: a) Es soll ein nicht-technischer Überblick über einige zentrale Verfahren des Machine Learning, wie er etwa in der Vorlesung Statistik 2 vermittelt wird, gegeben werden. Beispiele für solche Verfahren sind Entscheidungsbäume und Random Forests. b) Es soll zusammengefasst werden, wie diese Verfahren in der Psychologie sowohl in Anwendung als auch der Forschung verwendet werden. Auf technische Details zur Umsetzung muss dabei nicht eingegangen werden. Literatur: Goretzko, D., & Bühner, M. (2022). Note: Machine Learning Modeling and Optimization Techniques in Psychological Assessment. Psychological Test and Assessment Modeling, 64 (1), 3-21. https://www.psychologie-aktuell.com/fileadmin/Redaktion/Journale/ptam_2022-1/PTAM__1-2022_1_kor.pdf (Ein Überblick zu Machine Learning Methoden in der psychologischen Testkonstruktion.) Harlow, L. L., & Oswald, F. L. (2016). Big data in psychology: Introduction to the special issue. Psychological Methods, 21(4), 447-457. http://dx.doi.org/10.1037/met0000120 (Ein Überblick zu Anwendungen von grossen Datensätzen und Machine Learning in der Psychologie, mit Verweisen auf andere Arbeiten.)
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 21.11.2022
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Binäre logistische Regression in der psychologischen Forschung

    Beschreibung: Die empirische Forschung unterscheidet zwischen verschiedenen Arten der Regressionsanalyse, wobei die häufigste Form eine lineare Regressionsanalyse ist. Falls aber die abhängige Variable nicht intervall, sondern dichotom skaliert ist, sollte eine lineare Regressionsanalyse nicht mehr verwendet werden. Dabei kann die Wahrscheinlichkeit des Eintretens von einem Ereignis (ja/nein) und somit die Vorhersage von dichotomen Entscheidungen (heiraten: ja/nein, umziehen: ja/nein, Auto kaufen: ja/nein etc.) mit einer binären logistischen Regression beantwortet werden. Die Literaturarbeit soll sich mit der binären logistischen Regression und ihrer Verwendung in der psychologischen Forschung auseinandersetzen. Möglicher Einführungsartikel: Peng, C-Y. J., Lee, K. L., & Ingersoll, G. M. (2002). An introduction to logistic regression analysis and reporting. Journal of Educational Research, 96(1), 3-13.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 16.06.2021
    Kontakt: Yannick Rothacher, E-Mail

    Status: vergeben (erfasst / geändert: 06.06.2023)
  • Eine Übersicht zur Parallelanalyse

    Beschreibung: In empirischen Studien, welche Zusammenhänge zwischen Variablen untersuchen, ist die Klärung der Frage, ob sich die beobachteten Variablen auf eine kleinere Anzahl latenter Variablen zurückführen lassen, oft zentral. Ist die Anzahl der zugrundeliegenden latenten Variablen unbekannt, so kann die Dimensionalität der Variablen mit Hilfe explorativer Verfahren untersucht werden. In der psychologischen Forschung werden dazu häufig verschiedene Methoden aus dem Bereich der explorativen Faktorenanalyse verwendet, u.a. die Parallelanalyse. Die Literaturarbeit soll einen Überblick zu diesem Verfahren und einigen Alternativen dazu geben. Literatur: Fabrigar, L. R., Wegener, D. T., MacCallum, R. C., & Strahan, E. J. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4(3), 272?299. https://doi.org/10.1037/1082-989X.4.3.272 Lim, S., & Jahng, S. (2019). Determining the number of factors using parallel analysis and its recent variants. Psychological Methods, 24(4), 452?467. https://doi.org/10.1037/met0000230 Auerswald, M., & Moshagen, M. (2019). How to determine the number of factors to retain in exploratory factor analysis: A comparison of extraction methods under realistic conditions. Psychological Methods, 24(4), 468?491. https://doi.org/10.1037/met0000200
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 16.06.2021
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 21.11.2022)
  • Ein Überblick zu Deep Learning in der Psychologie

    Beschreibung: Durch die steigende Verfügbarkeit grosser Datensätze in der sozialwissenschaftlichen Forschung sowie technologische Neuentwicklungen wurde in den letzten Jahren vorgeschlagen, Modelle aus dem Bereich des maschinellen Lernens (Machine Learning) wie z.B. des Deep Learning (Künstliche Neuronale Netze) auf psychologische Fragestellungen anzuwenden. Die Literaturarbeit soll einen nicht-technischen Überblick über verschiedene Ansätze von Deep Learning Modellen (Feedforward Neural Network, Recurrent Neural Network, Convolutional Neural Network) geben und Anwendungsmöglichkeiten in der Psychologie aufzeigen. In diesem Zusammenhang können auch mögliche ethische Probleme, wie sie sich z.B. im Zusammenhang mit dem Cambridge Analytica Skandal ergeben haben, diskutiert werden. Literatur: Urban, C. J., & Gates, K. M. (in press). Deep learning: A primer for psychologists. Psychological Methods. http://dx.doi.org/10.31234/osf.io/4q8na Harlow, L. L., & Oswald, F. L. (2016). Big data in psychology: Introduction to the special issue. Psychological Methods, 21(4), 447-457. http://dx.doi.org/10.1037/met0000120
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 16.06.2021
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 30.05.2022)
  • Umgang mit Missing Data

    Beschreibung: Empirische Datensätze der Sozialwissenschaften enthalten oftmals fehlende Werte: Probanden können Items eines Fragebogens versehentlich auslassen oder bewusst die Antwort verweigern, Beobachter können abgelenkt werden, physiologische Messungen aus technischen Gründen ausfallen. Bei statistischen Analysen wird mit fehlenden Werten oftmals sehr einfach umgegangen: Fälle mit fehlenden Daten werden komplett entfernt, oder einzelne fehlende Werte durch Variablenmittelwerte ersetzt. Auf der anderen Seite existieren anspruchsvollere Verfahren, die unvollständige Datensätze analysieren bzw. fehlende Werte durch im Einzelfall plausible Werte ersetzen können. Die Literaturarbeit soll einen Überblick über unterschiedliche Formen fehlender Daten und die unterschiedlichen Möglichkeiten des statistischen Umgangs damit geben sowie die Konsequenzen der verschiedenen Vorgehensweisen kritisch diskutieren. Möglicher Einstieg: Schafer, J. L., & Graham, J. W. (2002). Missing data: Our view of the state of the art. Psychological Methods, 7, 47-177. doi:10.1037//1082-989X.7.2.147
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 18.06.2020
    Kontakt: Carolina Fellinghauer, E-Mail

    Status: vergeben (erfasst / geändert: 09.11.2021)
  • Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen

    Beschreibung: Klassifikations- und Regressionsbäume sind ein nichtparametrisches Verfahren, bei dem ? wie auch in den üblichen, parametrischen Regressionsmodellen ? aus mehreren Einflussvariablen der Wert einer Zielvariable vorhergesagt werden kann. Dieses Verfahren bietet verschiedene Vorteile gegenüber den klassischen Verfahren, ist ihnen aber auch in manchen Situationen unterlegen. Die Literaturarbeit soll die Grundidee von Klassifikations- und Regressionsbäumen sowie ihre Vor- und Nachteile besprechen. Einführungsartikel: Strobl, C., Malley, J., & Tutz, G. (2009). An introduction to recursive partitioning: Rationale, application and characteristics of classification and regression trees, bagging and random forests. Psychological Methods, 14, 323-348.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 30.06.2020
    Kontakt: Yannick Rothacher, E-Mail

    Status: vergeben (erfasst / geändert: 16.06.2021)
  • Sind psychologische Studien replizierbar?

    Beschreibung: Im Jahr 2015 wurde eine Forschungsarbeit veröffentlicht, in der versucht wurde, eine Reihe psychologischer Studien zu replizieren. Erreicht werden konnte dies aber nur bei einem Bruchteil der Studien. Als Reaktion darauf kam es zu einer breiten Diskussion darüber, wie die Replizierbarkeit wissenschaftlicher Studien in der Psychologie und darüber hinaus erhöht werden kann, und zu einer Vielfalt konkreter Vorschläge. Die Literaturarbeit hat folgende Ziele: 1. Die Studie(n) zu beschreiben, die zu der erwähnten Diskussion über die Replizierbarkeit geführt haben und 2. die im Zuge dieser Diskussion erbrachten Lösungsvorschläge und Möglichkeiten zu ihrer praktischen Umsetzung zu beschreiben. Literatur: Lindsay, S. D. (2015). Replication in Psychological Science. Psychological Science, 26(12), 1827?1832. doi: 10.1177/0956797615616374 Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349 (6251), aac4716. doi: 10.1126/science.aac4716
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 30.06.2020
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 16.06.2021)
  • Sequentielles Testen

    Beschreibung: Eine ausreichende Power in psychologischen Studien zu erreichen, ist häufig eine Herausforderung, insbesondere dann, wenn die Effektstärke nicht bekannt ist. Eine Möglichkeit dieser Herausforderung zu begegnen ist das sequentielle Testen. Hierbei werden, unter Einhaltung der Typ-1 Fehlerrate, Zwischenauswertungen durchgeführt, um zu prüfen, ob die Datenerhebung früher als geplant gestoppt werden kann. Die Literaturarbeit zu diesem Thema soll sich mit den Chancen und Risiken des sequentiellen Testens für die psychologische Forschung kritisch auseinandersetzen. Lakens, D. (2014). Performing high?powered studies efficiently with sequential analyses. European Journal of Social Psychology, 44, 701-710. https://doi.org/10.1002/ejsp.2023
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 30.06.2020
    Kontakt: Mirka Henninger, E-Mail

    Status: vergeben (erfasst / geändert: 16.06.2021)
  • Ursachen und Lösungsansätze zu Publication Bias in psychologischer Forschung

    Beschreibung: Wenn signifikante Befunde bevorzugt publiziert werden, und nicht-signifikante Befunde «in der Schublade verschwinden» (sog. File Drawer Problem), können Literaturüberblicke zu einem Forschungsthema sowie Meta-Analysen zu viele statistisch signifikante Ergebnisse aufweisen. In den vergangenen Jahren wurden verschiedene Verfahren zur Aufdeckung und Kontrolle des sogenannten «Publication Bias» vorgestellt. Die Literaturarbeit zu diesem Thema soll sich kritisch mit diesen Verfahren, ihren Annahmen, Potentialen und Limitationen auseinandersetzen. Schimmack, U. (2012). The ironic effect of significant results on the credibility of multiple-study articles. Psychological Methods, 17, 551?566. https://doi.org/10.1037/a0029487
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 14.01.2020
    Kontakt: Mirka Henninger, E-Mail

    Status: vergeben (erfasst / geändert: 18.06.2020)
  • Ein Blick in die Black Box von Machine Learning

    Beschreibung: Viele Fragestellungen in der Psychologie beschäftigen sich aus statistischer Sicht mit der Vorhersage von Variablen. So können psychologische Theorien verwendet werden, um klinische Erkrankungen, Berufserfolg sowie Verhalten vorherzusagen. Klassische statistische Verfahren, welche für solche Fragestellungen verwendet werden können, sind etwa die lineare und logistische Regression. Diese Verfahren haben den Vorteil, dass sie nicht nur Werkzeuge für statistische Vorhersagen liefern, sondern z.B. über Regressionsgeraden auch Modelle bieten, welche den Zusammenhang zwischen unabhängigen und abhängigen Variablen beschreiben. Als Alternative zu diesen klassischen Verfahren wurden in den letzten Jahrzehnten Machine Learning Verfahren wie etwa Random Forests vorgeschlagen. Im Unterschied zu klassischen Regressionsverfahren sind diese Methoden zwar sehr flexibel, aber sie bieten kein unmittelbar interpretierbares Modell, welches den Zusammenhang zwischen unabhängigen und abhängigen Variablen anschaulich beschreibt. Es wurden darum verschiedene Werkzeuge vorgeschlagen, um etwa grafisch nachvollziehbar zu machen, wie Machine Learning Verfahren wie Random Forests Zusammenhänge zwischen Variablen abbilden. Diese Bachelorarbeit soll a) einen kurzen Überblick zu Machine Learning Verfahren bieten und b) zwei Verfahren vorstellen, welche Machine Learning Verfahren leichter interpretierbar machen: Partial Dependence Plots und Individual Conditional Expectation Plots. Literatur: Goldstein, A., Kapelner, A., Bleich, J., & Pitkin, E. (2015). Peeking Inside the Black Box: Visualizing Statistical Learning With Plots of Individual Conditional Expectation. Journal of Computational and Graphical Statistics, 24(1), 44-65. Molnar, C. (2019). Interpretable Machine Learning. A Guide for Making Black Box Models Explainable. Selbstverlag.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 14.01.2020
    Kontakt: Rudolf Debelak, E-Mail

    Status: vergeben (erfasst / geändert: 18.06.2020)
  • Der p-Wert: Eine weit verbreitete und praktische Statistik?

    Beschreibung: In der Forschung ist der p-Wert fast unumgänglich. Er soll ausdrücken, wie «überraschend» das Ergebnis eines Signifikanztests ausfällt. In einer empirischen Studie, wo Hypothesen zum Vergleich, zur Veränderung oder zu Zusammenhängen von Variablen oder Messungen getroffen werden, und entsprechende statistische Tests durgeführt werden, entscheidet schlussendlich sehr oft der p-Wert über die Bedeutung der gefundenen Effekte. In diesem Sinne wird der p-Wert oft missbraucht, um «wichtige» von «unwichtigen» Resultaten zu trennen. Diese Arbeit kann (je nach Interessens-Schwerpunkt in unterschiedlicher Gewichtung) - einen Überblick zu Definitionen und Anwendung des p-Werts geben (Hypothesentesten; p-Wert und Power; p-Wert Adjustierung bei multiplem Testen; Alternativen zum p-Wert wie ?false discovery rates??), - den Zusammenhang zwischen p-Wert und Publication Bias sowie von p-Wert und p-Hacking beschreiben, - über Standpunkte aus der wissenschaftlichen Literatur für oder gegen die Nutzung des p-Wertes als einzigem Richtwert zur Beurteilung von empirischen Studien reflektieren. Literatur: Vidgen B., Yasseri, T. (2016). P-Values: Misunderstood and Misused. Frontiers in Physics, 4(6), 1-5. https://www.frontiersin.org/articles/10.3389/fphy.2016.00006/full
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 14.01.2020
    Kontakt: Carolina Fellinghauer, E-Mail

    Status: vergeben (erfasst / geändert: 18.06.2020)
  • Cross-over Experimente in der Psychologie und Medizin

    Beschreibung: Cross-over Experimente erfreuen sich grosser Beliebtheit in der psychologischen und auch der klinischen Forschung. Trotz der weit verbreiteten Anwendung des cross-over Designs wird dieses häufig kritisiert, weil carry-over Effekte auftreten können (z.B. Veränderungen aufgrund einer Behandlung, die auch zu späteren Messzeitpunkten anhalten). Diese Effekte lassen sich statistisch nur schwer kontrollieren. Bereits in der einfachsten Form einer cross-over Studie, dem two-period cross-over design, lassen sich solche potentiellen Schwachstellen erkennen. In dieser Literaturarbeit sollen die Vorteile und die Grundidee hinter dem cross-over Design erörtert werden. Weiter soll allgemein auf die statistische Auswertung, und damit verbunden auch auf potentielle methodische Probleme des cross-over Designs eingegangen werden. Möglicher Einstieg in die Literatur: Senn, S. (1994). The AB/BA crossover: past, present and future? Statistical Methods in Medical Research, 3, 303?324. Woods, J. R., Williams, J. G., & Tavel, M. (1989). The two-period crossover design in medical research. Annals of Internal Medicine, 110(7), 560?566. https://doi.org/10.7326/0003-4819-110-7-560
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum: 14.01.2020
    Kontakt: Yannick Rothacher, E-Mail

    Status: vergeben (erfasst / geändert: 18.06.2020)
  • Verfahren zur Bestimmung von Reliabilität von Fragebögen

    Beschreibung: In der Psychologie werden latente, also nicht beobachtbare Variablen mit Hilfe von Fragebögen gemessen. Solche Fragebögen haben nur eine bestimmte Messgenauigkeit (Reliabilität) und sind folglich immer mit einem Messfehler behaftet. In der klassischen Testtheorie wird zur Schätzung bzw. Bestimmung der Reliabiltät traditionell Cronbachs alpha verwendet. Von diesem Koeffizienten ist jedoch bekannt, dass er keine guten statistischen Eigenschaften aufweist (Sijtsma, 2009). Es gibt daher viele alternative Vorschläge, wie Reliabilität geschätzt werden kann. Ziel der Arbeit ist es, die Probleme von Cronbach’s Alpha aufzuzeigen und einen Überblick über alternative Koeffizienten zu geben.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 19.12.2018)
  • Ausreisser in der linearen Regression

    Beschreibung: In der psychologischen Forschung drehen sich viele Fragestellungen um die Beschreibung einer abhängigen metrischen Variable (z.B. Intelligenz) durch eine unabhängige metrische Variable (z.B. Alter). Diese Fragestellungen werden oft mit linearen Regressionsmodellen untersucht, welche zu den ältesten statistischen Verfahren überhaupt gehören. In praktischen Untersuchungen stellt sich bei der Anwendung der linearen Regressionsmodelle mitunter das Problem, dass extreme Werte (sogenannte Ausreisser) in der abhängigen oder unabhängigen Variable vorhanden sind. Die Literaturarbeit soll die sich daraus ergebenden Probleme behandeln und folgende Fragen klären: 1. Wie kann man Ausreisser definieren und erkennen? 2. Welchen Einfluss haben Ausreisser auf das Ergebnis einer linearen Regression? 3. Wie geht man mit Ausreissern um? Literatur:
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 18.12.2018)
  • Sind psychologische Studien replizierbar?

    Beschreibung: Im Jahr 2015 wurde eine Forschungsarbeit veröffentlicht, in der versucht wurde, eine Reihe psychologischer Studien zu replizieren. Erreicht werden konnte dies aber nur bei einem Bruchteil der Studien. Als Reaktion darauf kam es zu einer breiten Diskussion darüber, wie die Replizierbarkeit wissenschaftlicher Studien in der Psychologie und darüber hinaus erhöht werden kann, und zu einer Vielfalt konkreter Vorschläge. Die Literaturarbeit hat folgende Ziele: 1. Die Studie(n) zu beschreiben, die zu der erwähnten Diskussion über die Replizierbarkeit geführt haben und 2. die im Zuge dieser Diskussion erbrachten Lösungsvorschläge und Möglichkeiten zu ihrer praktischen Umsetzung zu beschreiben.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 18.12.2018)
  • Variable Importance in Linear Regression: It's All Relative.

    Beschreibung: Multiple linear regression is one of the most often used statistical techniques. Yet despite its popularity and its straightforward statistical properties and computation, there is at least one issue that seems impossible to resolve. That is, the question about how the importance of the predictors in predicting the outcome should be assessed, in particular when the predictor variables are correlated. Many techniques and methods have been proposed, often, however, leading to different results. In addition, there seems to be no consensus about what "variable importance" is or should be. The goal of this bachelor thesis is to critically discuss variable importance measures in multiple linear regression. Which measures have been proposed, and what are their properties? What are the views on variable importance in linear regression? Can a consensus be reached, or is it all relative?
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 10.12.2018)
  • The Speed-Accuracy Trade-Off: Modeling Response Times and Accuracy Simultaneously.

    Beschreibung: The use of computer-based assessments made it possible to record not only the actual responses on the items, but also the response times per item. Rather than modeling both outcomes separately, several models and methods have been proposed to simultaneously model accuracy and response times. Often, those models make a distinction between speed and ability, where speed is related to response times, and ability is related to the accuracy. However, the complete response behavior depends both on ability and speed, implying that someone’s speed could also affect the response accuracy. Indeed, the speed-accuracy trade-off is a well know observation in cognitive psychology, and more recently, it has also been studied in more traditional ability assessments. This bachelor thesis aims to give an overview on the different perspectives on the speed-accuracy trade-off. Which models have been proposed and used? How do they differ in their interpretation of ability? What are the current issues, and the next steps?
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 10.12.2018)
  • The value of plausible values in large-scale educational assessments. What, why and when?

    Beschreibung: Large-scale educational assessments, such as PISA, TIMMS or NAEP, aim to measure broadly defined school-relevant abilities such as mathematics, and science literacy. Often the goal is to describe and compare the performance of groups within a population of interest (for instance, different educational systems within a region are compared). In contrast, the performance of the individual test takers (i.e., the students) is not of interest. Rather than using point estimates of the student abilities, plausible values are used to obtain estimates at the group level. But what are these so-called plausible values? The goal of this Bachelor thesis is to describe plausible values in large-scale educational assessments, and to critically discus when and why plausible values are valuable.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 13.07.2018)
  • Ein Überblick zu Netzwerkmodellen

    Beschreibung: Ein klassischer Ansatz in der Psychologie besteht darin, beobachtete Daten auf latente Konstrukte zurückzuführen. So kann etwa das Antwortverhalten in einem Persönlichkeitsfragebogen auf latente Konstrukte wie «Extraversion» oder «Neurotizismus» zurückgeführt werden, oder bestimmte Symptome auf das latente Konstrukt «Depression». Als Alternative zu diesem Ansatz werden seit einigen Jahren Netzwerkmodelle diskutiert. Hier ist die grundlegende Idee, die Zusammenhänge zwischen den beobachteten Daten (z.B. den Symptomen der Depression) direkt zu untersuchen, ohne ein latentes Konstrukt zu definieren. Man erhält so ein Netzwerk von Variablen, deren Zusammenhänge sich etwa auch graphisch veranschaulichen lassen. Die Literaturarbeit soll einen Überblick zu den Ideen von Netzwerkmodellen geben und einige Anwendungen beschreiben.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 28.06.2018)
  • Umgang mit Messfehlern in der Psychometrie

    Beschreibung: In der Psychologie werden latente, also nicht beobachtbare Variablen mit Hilfe von Fragebögen gemessen. Solche Fragebögen haben nur eine bestimmte Messgenauigkeit (Reliabilität) und sind folglich immer mit einem Messfehler behaftet. In der Statistik ist es bekannt, dass messfehlerbehaftete Daten zu verzerrten Schätzungen in Regressionsanalysen führen (siehe z.B. Stefanski, 1985). Es gibt daher verschiedene Verfahren aus der Statistik (z.B. die SIMEX Methode), sowie aus der Psychometrie (z.B. Strukturgleichungsmodelle), diese Verzerrung zu berücksichtigen. Ziel der Literaturarbeit soll es sein, einen Überblick über die unterschiedlichen Verfahren zu geben, und deren Vorteile und Nachteile in verschiedenen Anwendungsgebieten kritisch zu diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 06.12.2017)
  • Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests

    Beschreibung: Psychologische Tests sind ein zentrales Werkzeug zur Erfassung psychologischer Merkmale bei Menschen. Ein wichtiges Gütekriterium zur Beurteilung der Qualität psychologischer Tests ist die Reliabilität eines Tests, welche oft über dessen innere Konsistenz abgeschätzt wird. Um diese zu berechnen, wurden in der Literatur verschiedene Methoden vorgeschlagen, wie z.B. die Berechnung von Cronbachs Alpha. Die Literaturarbeit soll einen Überblick über diese Methoden geben und kritisch diskutieren, wo die Vor- und Nachteile dieser Methoden in der praktischen Anwendung liegen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 06.12.2017)
  • Ausreisser in der linearen Regression

    Beschreibung: In der psychologischen Forschung drehen sich viele Fragestellungen um die Beschreibung einer abhängigen metrischen Variable (z.B. Intelligenz) durch eine unabhängige metrische Variable (z.B. Alter). Diese Fragestellungen werden oft mit linearen Regressionsmodellen untersucht, welche zu den ältesten statistischen Verfahren überhaupt gehören. In praktischen Untersuchungen stellt sich bei der Anwendung der linearen Regressionsmodelle mitunter das Problem, dass extreme Werte (sogenannte Ausreisser) in der abhängigen oder unabhängigen Variable vorhanden sind. Die Literaturarbeit soll die sich daraus ergebenden Probleme behandeln und folgende Fragen klären: 1. Wie kann man Ausreisser definieren und erkennen? 2. Welchen Einfluss haben Ausreisser auf das Ergebnis einer linearen Regression? 3. Wie geht man mit Ausreissern um?
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 06.12.2017)
  • Kann man gefälschten Forschungsergebnissen mit statistischen Mitteln auf die Schliche kommen?

    Beschreibung: Immer wieder wird von Fällen berichtet, in denen die Ergebnisse von wissenschaftlichen Studien gefälscht wurden – manchmal um zu besseren oder spektakuläreren Resultaten zu kommen, oft aber auch nur weil die sorgfältige Datenerhebung so viel Zeit und Geld kostet. Frei erfundene Messwerte unterscheiden sich aber in ihren statistischen Eigenschaften meist von echten: Selbst wenn es z.B. gelingt, Werte mit einem plausiblen Mittelwert zu erfinden, ist die Variabilität oft kleiner als bei echten Messwerten. Die Literaturarbeit soll einen Einblick in häufige Fehler beim Fälschen von Daten und die statischen Mittel zu ihrer Aufdeckung geben.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 01.12.2017)
  • Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen

    Beschreibung: Klassifikations- und Regressionsbäume sind ein nichtparametrisches Verfahren, bei dem – wie auch in den üblichen, parametrischen Regressionsmodellen – aus mehreren Einflussvariablen der Wert einer Zielvariable vorhergesagt werden kann. Dieses Verfahren bietet verschiedene Vorteile gegenüber den klassischen Verfahren, ist ihnen aber auch in manchen Situationen unterlegen. Die Literaturarbeit soll die Grundidee von Klassifikations- und Regressionsbäumen sowie ihre Vor- und Nachteile besprechen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 01.12.2017)
  • Difference scores in psychological research, are they problematic? When and why (not)?

    Beschreibung: A number of authors have criticized the use of difference scores as measures of change or incongruence. The critics point to problems with respect to reliability, and issues related to the use of difference score as dependent or independent variables in regression. In contrast, other authors have written in defense of applying difference scores. Should we abandon difference scores or can they still be useful under certain conditions? The goal of this bachelor thesis is to critically discuss the use of difference scores in psychological research. What are their psychometric problems? When are they justifiable, and when not?
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.07.2017)
  • Big data and data mining in psychological and educational research: more than just buzz words?

    Beschreibung: In recent years the terms Big Data and Data Mining have become popular buzz words, both in daily life and in scientific research. Yet, is this trend also apparent in the fields of psychological and educational research? Within these fields, what do these words convey behind the buzz? The goal of this bachelor thesis is to critically discuss Big Data and Data Mining, as they are applied in psychological and educational research. Which techniques have been applied, and which research questions have been addressed so far? With respect to future directions, what are the opportunities, what are the risks?
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.07.2017)
  • Klassische Testtheorie im Vergleich zur Item Response Theorie

    Beschreibung: Die klassische Testtheorie (KTT) wurde zu Beginn des 20. Jahrhunderts entwickelt zur Analyse von psychometrischen Tests. In der Folge wurde die Item Response Theorie (IRT) entwickelt, die zum heutigen Zeitpunkt bereits in vielen Forschungsbereichen die vorherrschenden Methoden zur Testanalyse stellt. Trotzdem bleiben Methoden aus der klassischen Testtheorie immer noch beliebt. Ziel der Bachelorarbeit ist es, eine Gegenüberstellung von IRT und KTT auszuarbeiten, bei der beispielhaft einzelne Modelle vorgestellt und die Vor- und Nachteile der beiden Theorien kritisch diskutiert werden.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 23.06.2017)
  • Fehlende Daten: Unterschiedliche Formen und statistischer Umgang

    Beschreibung: In den Sozialwissenschaften enthalten empirische Daten oftmals fehlende Werte: Probanden können Items eines Fragebogens versehentlich auslassen oder bewusst die Antwort verweigern, Beobachter können abgelenkt werden oder Labor-Geräte ausfallen. Bei statistischen Analysen wird mit fehlenden Werten oftmals sehr einfach umgegangen: Fälle mit fehlenden Daten werden gar nicht analysiert (listwise deletion), oder die fehlenden Werte werden durch Variablenmittelwerte ersetzt (mean imputation). Alternativ gibt es anspruchsvollere Verfahren, die unvollständige Datensätze analysieren bzw. fehlende Werte durch im Einzelfall plausible Werte ersetzen können. Die Literaturarbeit soll einen Überblick über unterschiedliche Formen fehlender Daten und die unterschiedlichen Möglichkeiten des statistischen Umgangs damit geben, sowie die Konsequenzen unterschiedlicher Vorgehensweisen kritisch diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 23.06.2017)
  • Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests

    Beschreibung: Psychologische Tests sind ein zentrales Werkzeug zur Erfassung psychischer Merkmale bei Menschen. Ein wichtiges Gütekriterium zur Beurteilung der Qualität psychologischer Tests ist die Reliabilität eines Tests, welche oft über dessen innere Konsistenz abgeschätzt wird. Um diese zu berechnen, wurden in der Literatur verschiedene Methoden vorgeschlagen, wie z.B. die Berechnung von Cronbachs Alpha. Die Literaturarbeit soll einen Überblick über diese Methoden geben und kritisch diskutieren, wo die Vor- und Nachteile dieser Methoden in der praktischen Anwendung liegen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 16.06.2017)
  • Mittelwertsvergleiche jenseits des t-Tests

    Beschreibung: In der psychologischen Forschung werden oft verschiedene Gruppen von Personen hinsichtlich ihrer Ausprägung in einer metrischen Variable untersucht, wie z.B. einem Persönlichkeitsmerkmal oder einer Leistungsdimension. Für die Beantwortung derartiger Fragestellungen werden üblicherweise statistische Testverfahren wie der t-Test oder die Varianzanalyse eingesetzt. Seit einiger Zeit gibt es jedoch Vorschläge für alternative Methoden, welche in vielen Fällen zuverlässigere Ergebnisse liefern können. Die Arbeit soll einen Überblick über diese Vorschläge bringen und Situationen aufzeigen, wo deren Einsatz erfolgversprechend ist.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 16.06.2017)
  • Questionable research practices in psychological research and recommendations to overcome the current replicability crisis

    Beschreibung: During the last decade the reputation of psychological research got severely bruised. Several psychological effects proved to be unreplicable. Although there have been some reported cases dishonest data manipulation, the so called replicability crisis in psychology is mainly caused by questionable research practices. The goal of this bachelor thesis is to critically discuss questionable research practices in psychological research, and to describe the recommendations to overcome the replicability crisis critically.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 08.12.2016)
  • The value of plausible values in large-scale educational assessments. What, why and when?

    Beschreibung: Large-scale educational assessments, such as PISA, TIMMS or NAEP, aim to measure broadly defined school-relevant abilities such as mathematics, and science literacy. Often the goal is to describe and compare the performance of groups within a population of interest (for instance, different educational systems within a region are compared). In contrast, the performance of the individual test takers (i.e., the students) is not of interest. Rather than using point estimates of the student abilities, plausible values are used to obtain estimates at the group level. But what are these so-called plausible values? The goal of this Bachelor thesis is to describe plausible values in large-scale educational assessments, and to critically discus when and why plausible values are valuable.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 08.12.2016)
  • Simulationsstudien zu Faustregeln für Strukturgleichungsmodelle

    Beschreibung: Um die Güte eines Strukturgleichungsmodelles (SEM) zu beurteilen, gibt es verschiedene Möglichkeiten jedoch keine eindeutigen Aussagen. Eine der beliebtesten Varianten ist es, die sogenannten Fit-Indizes zu beurteilen, Hierfür gibt es jedoch wiederum keine vorgegeben cut off-Werte ab wann sie für die Ablehnung des Modells sprechen. Hu und Bettler (1999) schlugen die bislang am häufigsten verwendeten Faustegeln für Fit-Indizes für Strukturgleichungsmodelle vor, die sie auf Simulationsstudien basieren. Im Anschluss daran wurde jedoch viele weitere Studien durchgeführt, die auf andere Art und Weise die Daten simulierten und entsprechend auch zu anderen Ergebnissen kommen. Ziel der Arbeit ist es, eine Überblick über die Ergebnisse solcher Simulationsstudien zu SEM-Faustregeln zu geben und die Konsequenzen für die Interpretation von Faustegeln aufzuzeigen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 07.12.2016)
  • Umgang mit Messfehlern in der Psychometrie

    Beschreibung: In der Psychologie werden latente, also nicht beobachtbare Variablen mit Hilfe von Fragebögen gemessen. Solche Fragebögen haben nur eine bestimmte Messgenauigkeit (Reliabilität) und sind folglich immer mit einem Messfehler behaftet. In der Statistik ist es bekannt, dass messfehlerbehaftete Daten zu verzerrten Schätzungen in Regressionsanalysen führen (siehe z.B. Stefanski, 1985). Es gibt daher verschiedene Verfahren aus der Statistik (z.B. die SIMEX Methode), sowie aus der Psychometrie (z.B. Strukturgleichungsmodelle), diese Verzerrung zu berücksichtigen. Ziel der Literaturarbeit soll es sein, einen Überblick über die unterschiedlichen Verfahren zu geben, und deren Vorteile und Nachteile in verschiedenen Anwendungsgebieten kritisch zu diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 07.12.2016)
  • Die Entwicklung der methodischen Überprüfung von Testfairness

    Beschreibung: Um zu überprüfen, ob ein psychologischer Test eine bestimmte Gruppe diskriminiert, gibt es unterschiedliche Methoden. Mit dem Begriff Differential Item Functioning (DIF) werden dabei Methoden bezeichnet, die versuchen, einzelne Items zu identifizieren, die für Subgruppen unterschiedlich schwierig sind und somit eine Subgruppe unfair bevorteilen könnten. Ziel der Bachelorarbeit soll es sein, die historische Entwicklung an einigen ausgewählten Methoden nach zu skizzieren und ihre Vor- und Nachteile kritisch zu diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 06.12.2016)
  • Vor- und Nachteile ausgewählter Methoden der Item Response Theorie

    Beschreibung: Unter dem Begriff der Item Response Theorie werden verschiedene Modelle zur Skalierung von Attributen und Fähigkeiten zusammengefasst. Ziel der Bachelorarbeit soll es sein, einige ausgewählte Methoden aus dem Bereich, wie z.B. das Rasch- oder das Birnbaummodell, zu präsentieren, deren Vor- und Nachteile aufzuzeigen und dies kritisch zu diskutieren. Auch sollte hierbei auf den Zusammenhang und die Abgrenzung zur Klassischen Testtheorie eingegangen werden, aus der die IRT entwickelt wurde.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 06.12.2016)
  • Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests

    Beschreibung: Psychologische Tests sind ein zentrales Werkzeug zur Erfassung psychischer Merkmale bei Menschen. Ein wichtiges Gütekriterium zur Beurteilung der Qualität psychologischer Tests ist die Reliabilität eines Tests, welche oft über dessen innere Konsistenz abgeschätzt wird. Um diese zu berechnen, wurden in der Literatur verschiedene Methoden vorgeschlagen, wie z.B. die Berechnung von Cronbachs Alpha. Die Literaturarbeit soll einen Überblick über diese Methoden geben und kritisch diskutieren, wo die Vor- und Nachteile dieser Methoden in der praktischen Anwendung liegen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.12.2016)
  • Mittelwertsvergleiche jenseits des t-Tests

    Beschreibung: In der psychologischen Forschung werden oft verschiedene Gruppen von Personen hinsichtlich ihrer Ausprägung in einer metrischen Variable untersucht wie z.B. einem Persönlichkeitsmerkmal oder einer Leistungsdimension. Für die Beantwortung derartiger Fragestellungen werden üblicherweise statistische Testverfahren wie der t-Test oder die Varianzanalyse eingesetzt. Seit einiger Zeit gibt es jedoch Vorschläge für alternative Methoden, welche in vielen Fällen zuverlässigere Ergebnisse liefern können. Die Arbeit soll einen Überblick über diese Vorschläge bringen und Situationen aufzeigen, wo deren Einsatz erfolgversprechend ist.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.12.2016)
  • Ursachen und Aufdeckung von Verzerrungen in Meta-Analysen

    Beschreibung: In Meta-Analysen werden die Ergebnisse mehrerer Studien zum selben Thema zusammengefasst dargestellt. Die Auswahl der berücksichtigten Studien wirkt sich dabei aber auf die Ergebnisse aus: z.B. durch Publikations-Bias (die Tatsache, dass meist nur die Ergebnisse von Studien veröffentlicht werden, die z.B. einen Unterschied zwischen alter und neuer Behandlungsart nachweisen konnten, nicht aber die Ergebnisse von Studien, die keinen Unterschied nachweisen konnten) können die Ergebnisse der Meta-Analyse stark verzerrt werden. Die Literaturabeit soll einen Überblick über die Urachen von Verzerrungen in Meta-Analysen (mit Schwerpunkt Publikations-Bias) und Methoden zu ihrer Aufdeckung geben.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.12.2016)
  • Testfairness und DIF-Methoden

    Beschreibung: Für psychologische Tests ist Fairness eine wichtige Voraussetzung. Kein Test sollte Personen aufgrund ihres Geschlechts, Herkunft, sozialen Status oder anderen für den Test irrelevanten Charakteristiken benachteiligen. Methodisch stellt die Sicherstellung der Fairness eine große Herausforderung dar. Unter dem Namen Differential Item Functioning (DIF) werden dabei Methoden zusammengefasst, die versuchen unfaire Items zu identifizieren. Ziel der Bachelorarbeit soll es sein, einige statistische Verfahren zur DIF-Analyse vorzustellen und ihre jeweiligen Vor- und Nachteile kritisch zu diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.07.2016)
  • Klassische Testtheorie im Vergleich zur Item Response Theorie

    Beschreibung: Die klassische Testtheorie (KTT) wurde zu Beginn des 20. Jahrhunderts entwickelt zur Analyse von psychometrischen Tests. Aus ihr wurde die Item Response Theorie (IRT) heraus entwickelt, die zum heutigen Zeitpunkt die vorherrschende Methodiken zur Testanalyse stellt. Trotzdem bleiben Methoden aus der klassischen Testtheorie immer noch beliebt. Ziel der Bachelorarbeit ist es, eine Gegenüberstellung von IRT und KTT auszuarbeiten, bei der beispielhaft einzelne Modelle vorgestellt und die Vor- und Nachteile der beiden Theorien kritisch diskutiert werden.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.07.2016)
  • Fehlende Daten: Unterschiedliche Formen und statistischer Umgang

    Beschreibung: In den Sozialwissenschaften enthalten empirische Daten oftmals fehlende Werte: Probanden können Items eines Fragebogens versehentlich auslassen oder bewusst die Antwort verweigern, Beobachter können abgelenkt werden oder Labor-Geräte ausfallen. Bei statistischen Analysen wird mit fehlenden Werten oftmals sehr einfach umgegangen: Fälle mit fehlenden Daten werden gar nicht analysiert (listwise deletion), oder die fehlenden Werte werden durch Variablenmittelwerte ersetzt (mean imputation). Alternativ gibt es anspruchsvollere Verfahren, die unvollständige Datensätze analysieren bzw. fehlende Werte durch im Einzelfall plausible Werte ersetzen können. Die Literaturarbeit soll einen Überblick über unterschiedliche Formen fehlender Daten und die unterschiedlichen Möglichkeiten des statistischen Umgangs damit geben sowie die Konsequenzen unterschiedlicher Vorgehensweisen kritisch diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.07.2016)
  • Berechnung von Konfidenzintervallen für die innere Konsistenz eines psychologischen Tests

    Beschreibung: Psychologische Tests sind ein zentrales Werkzeug zur Erfassung psychischer Merkmale bei Menschen. Ein wichtiges Gütekriterium zur Beurteilung der Qualität psychologischer Tests ist die Reliabilität eines Tests, welche oft über dessen innere Konsistenz abgeschätzt wird. Ein häufig verwendetes Mass für die innere Konsistenz eines psychologischen Tests ist Cronbachs Alpha. Dieser Wert wird anhand der Daten einer Stichprobe, welche den Test bearbeitet hat, berechnet, und kann je nach untersuchter Stichprobe schwanken. Um die Stichprobenabhängigkeit des Werts für Cronbachs Alpha zu berücksichtigen, haben verschiedene Autoren Methoden vorgeschlagen, Konfidenzintervalle für Cronbachs Alpha zu berechnen. Die Literaturarbeit soll einen Überblick über diese Methoden geben und kritisch diskutieren, wo die Vor- und Nachteile dieser Methoden in der praktischen Anwendung liegen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.02.2016)
  • Bestimmung der Dimensionalität von Daten mit explorativer Faktoren- und Hauptkomponentenanalyse

    Beschreibung: In empirischen Studien, welche Zusammenhänge zwischen Variablen untersuchen, ist die Klärung der Frage, ob sich die beobachteten Variablen auf eine kleinere Anzahl latenter Variablen zurückführen lassen, oft zentral. Ist die Anzahl der zugrundeliegenden latenten Variablen unbekannt, so kann die Dimensionalität der Variablen mit Hilfe explorativer Verfahren untersucht werden. In der psychologischen Forschung werden dazu häufig verschiedene Methoden aus dem Bereich der explorativen Faktorenanalysen und der Hauptkomponentenanalyse verwendet. Die Literaturarbeit soll einen Überblick über die wichtigsten Methoden geben.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.02.2016)
  • Verfahren zur Aufgabenauswahl bei adaptiver Testvorgabe

    Beschreibung: Modelle der probabilistischen Testtheorie, wie etwa das Rasch-Modell, werden oft eingesetzt, um die Interaktion zwischen den Testaufgaben und den Personen, welche diese bearbeiten, zu beschreiben. Eine praktische Anwendung dieser Modelle bei computergestützten Tests liegt im adaptiven Testen. Die Grundidee des adaptiven Testens liegt darin, dass während der Testvorgabe entschieden wird, welche Aufgaben eine Person bearbeitet. Der Test kann sich dadurch an die Leistungsfähigkeit der Person anpassen und ist insgesamt flexibler in seinen messtheoretischen Eigenschaften. In den letzten Jahrzehnten wurden verschiedene Verfahren vorgeschlagen, um die Aufgabenauswahl bei adaptiven Testverfahren durchzuführen. Die Literaturarbeit soll einen Überblick über die dazu beschriebenen Verfahren bieten und diese vergleichen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.02.2016)
  • Verfahren zur Prüfung der Modellpassung im Rasch-Modell

    Beschreibung: Das Testmodell nach Rasch ist weit verbreitet, um die Interaktion zwischen Testpersonen und Testaufgaben zu beschreiben. Ein wesentlicher Vorteil des Rasch-Modells gegenüber alternativen Ansätzen (z.B. der klassischen Testtheorie) besteht darin, dass die Güte der Modellpassung für ein gegebenes Aufgabenset empirisch geprüft werden kann. Dazu wurden von zahlreichen Autoren verschiedene Modelltests entwickelt, welche unterschiedliche Arten von Modellverletzung prüfen sollen. Die Literaturarbeit soll die wichtigsten dieser Ansätze vorstellen und die Unterschiede zwischen den einzelnen Ansätzen diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.02.2016)
  • Einführung in die Konstruktion von statistischen Tests und Konfidenzintervallen mit der Bootstrap-Methode

    Beschreibung: Statistische Tests und Konfidenzintervalle werden üblicherweise mithilfe einer theoretischen Verteilungsannahme (z.B. Normalverteilung) bestimmt. Ist jedoch für eine interessierende Teststatistik die Verteilung nicht bekannt, können Tests und Konfidenzintervalle mithilfe zufälliger Ziehungen aus der vorliegenden Stichprobe mithilfe des Computers bestimmt werden. Die Literaturarbeit soll einen Überblick über die Grundidee der Bootstrap-Methode und typische Anwendungsbeispiele geben. Einführungsartikel: Johnson, R. (2001). An introduction to the bootstrap. Teaching Statistics, 23, 49-54.  
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 08.12.2015)
  • Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen

    Beschreibung: Klassifikations- und Regressionsbäume sind ein nichtparametrisches Verfahren, bei dem – wie auch in den üblichen, parametrischen Regressionsmodellen – aus mehreren Einflussvariablen der Wert einer Zielvariable vorhergesagt werden kann. Dieses Verfahren bietet verschiedene Vorteile gegenüber den klassischen Verfahren, ist ihnen aber auch in manchen Situationen unterlegen. Die Literaturarbeit soll die Grundidee von Klassifikations- und Regressionsbäumen sowie ihre Vor- und Nachteile besprechen.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 08.12.2015)
  • Propensity Scores zur Auswertung von quasi-experimentellen Studien

    Beschreibung: In experimentellen Studien werden die Versuchspersonen den Versuchsbedingungen (z.B. Medikamenten- vs. Placebo-Gruppe) zufällig zugeordnet. Dadurch wird sichergestellt, dass sich die Gruppen nur in der intendierten Behandlung, nicht aber in weiteren Variablen (wie z.B. Alter, sozialem Hintergrund, Vorerkrankungen etc.) systematisch unterscheiden. In quasi-experimentellen Studien ist z.B. aus ethischen Gründen eine zufällige Zuteilung der Versuchspersonen nicht möglich. Der Ansatz der Propensity Scores wird als Möglichkeit diskutiert, trotz der mangelnden zufälligen Zuteilung kausale Aussagen aus quasi-experimentellen Studien abzuleiten. Die Literaturarbeit soll einen Überblick über die unterschiedlichen auf Propensity Scores basierenden Korrekturverfahren geben und die vermeintliche Ermöglichung von Kausalaussagen kritisch diskutieren.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 02.12.2015)
  • Testing and Confidence Intervals in the "New" Statistics

    Beschreibung: Cumming (2014) advocates the adoption of twenty-five guidelines for improving psychological research. Though these guidelines touch on practically every aspect of the scientific process, the guidelines advocating the use of confidence intervals (CIs) over null hypothesis significance testing (NHST) are particularly relevant to the current debate over replication and publication bias. This Bachelor’s thesis should discuss problems associated with traditional NHST as well as the ability CIs to address these problems. If there interest, the thesis may also compare and contrast CIs and NHST with their Bayesian counterparts.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.07.2014)
  • Accounting for Response Times using Diffusion Models

    Beschreibung: The time it takes an individual to respond to an experimental stimulus or test item contains valuable information about the processes that involved in their response. Unfortunately, these so-called response times (RTs) are difficult to analyze, because their distribution is rarely well-summarized by its mean and variance. One method for addressing this difficulty is to analyze RTs using a diffusion model. Diffusion models account for RTs by modeling the process underlying an individual's responses. This Bachelor's thesis should present an overview of the diffusion model and compare it other approaches to modeling RTs. The alternative approaches considered should include data trimming and transformations as well as assuming that response times follow are distributed according to a particular probability distribution.
    Anzahl Arbeiten für dieses Thema:
    Zeitrahmen:
    Eingabedatum:
    Kontakt: , E-Mail

    Status: (erfasst / geändert: 04.07.2014)