Themen für Bachelorarbeiten
Übersicht der Bachelorarbeitsthemen dieser Professur
Durch Klick auf die einzelnen Themen werden die Detail-Informationen angezeigt.
- Themenvergabe durch Präsenztermin
Betreuungsperson der Bachelorarbeit: Prof. Dr. C. StroblFür die Vergabe der Bachelorarbeitsthemen FS25: schreiben Sie bitte eine Email mit den gewünschten BA-Themen (Priorität 1-3),
bis 24.2.25 an methoden@psychologie.uzh.ch.
offen:
Ausreisser in der linearen Regressionsanalyse (Outliers in linear regression)
Beschreibung: Die lineare Regression beschreibt, wie eine oder mehrere Variablen (z.B. Alter, Bildungsstand) eine abhängige Variable (z.B. Zufriedenheit im Beruf) beeinflussen. Neben direkten Anwendungen der linearen Regression bildet sie auch die Grundlage für fortgeschrittene statistische Verfahren wieStrukturgleichungsmodelle oder Mediationsanalysen. Allerdings ist die lineare Regression sehr anfällig für Abweichungen von Modellierungsannahmen. Man kann beispielsweise zeigen, dass eine einzige Beobachtung mit extremen Werten (sogenannte Ausreisser) genügt, um die Validität der Ergebnisse einer Regressionsanalyse zu zerstören. In dieser Bachelorarbeit fassen Studierende die Literatur zu den folgenden sich ergebenden Fragestellungen zusammen. 1. Wie sind Ausreisser definiert und wie kann man sie erkennen? 2. Wie geht man mit Ausreissern um? 3. Was für ausreisserrobuste Alternativen zur klassischen linearen Regression gibt es?
Bachelor theses on this topic can also be written in English.
Referenzen:
Aguinis, H., Gottfredson, R. K., & Joo, H. (2013). Best-practice recommendations for defining, identifying, and handling outliers. Organizational Research Methods, 16(2), 270-301. (https://doi.org/10.1177/1094428112470848)
Alfons, A., Ate?, N. Y., & Groenen, P. J. F. (2022). A Robust Bootstrap Test for Mediation Analysis. Organizational Research Methods, 25(3), 591-617. (https://doi.org/10.1177/1094428121999096)
Kontakt: Max Welz, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 19.11.2024)Unachtsames Antworten in psychologischen Fragebögen (Careless responding in psychological questionnaires)
Beschreibung: Fragebögen sind ein essenzielles Werkzeug für die empirische Forschung in der Psychologie. Es kann jedoch passieren, dass manche Studienteilnehmenden nicht immer achtsam auf Fragen antworten, beispielsweise weil sie sich die Fragen nicht gründlich durchlesen, sie nicht ausreichend verstehen, oder nicht ausreichend über sie nachdenken. Dieses Phänomen ist in der Literatur bekannt als «careless responding» oder «inattentive responding» (Deutsch: unachtsames Antworten). Unachtsames Antworten stellt ein wichtiges empirisches Problem dar, da bereits ein paar wenige solcher Antworten Studienergebnisse verfälschen können. Es ist daher wichtig, unachtsame Studienteilnehmende zu identifizieren und/oder deren Antwortverhalten statistisch zu modellieren, um eine Verfälschung der Studienergebnisse zu verhindern. In dieser Bachelorarbeit fassen Studierende den aktuellen Stand der Literatur zu unachtsamem Antworten sowie vorgeschlagene Lösungsansätzen zusammen.
Bachelor theses on this topic can also be written in English.
Referenzen:
Ward, M. K., & Meade, A. W. (2023). Dealing with careless responding in survey data: Prevention, identification, and recommended best practices. Annual Review of Psychology, 74(1), 577-596. (https://doi.org/10.1146/annurev-psych-040422-045007)
Meade, A. W., & Craig, S. B. (2012). Identifying careless responses in survey data. Psychological Methods, 17(3), 437?455. (https://psycnet.apa.org/doi/10.1037/a0028085)
Kontakt: Max Welz, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 19.11.2024)Sample size planning in psychology
Beschreibung: An important step when designing an empirical study is to justify the sample size that will be collected. The key aim of a sample size justification for such studies is to explain how the collected data is expected to provide valuable information given the inferential goals of the researcher. The goal of this thesis is to describe and discuss some aspects for sample size justification, for example
1) collecting data from (almost) the entire population,
2) choosing a sample size based on resource constraints,
3) performing an a-priori power analysis,
4) planning for a desired accuracy,
5) using heuristics, or
6) explicitly acknowledging the absence of a justification.
References:
Daniel Lakens, (2022), Sample size justification, Collabra: Psychology, 8(1), https://doi.org/10.1525/collabra.33267
Russell V. Lenth, (2001), Some Practical Guidelines for Effective Sample Size Determination, The American Statistician, 55(3), 187-193, https://doi.org/10.1198/000313001317098149
Scott E. Maxwell, Ken Kelley, Joseph R. Rausch, (2008), Sample Size Planning for Statistical Power and Accuracy in Parameter Estimation, Annual Review of Psychology, 59: 537-563, https://doi.org/10.1146/annurev.psych.59.103006.093735
Kontakt: Thomas Welchowski, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 28.10.2024)Comparison of classical test and item response theory
Beschreibung: Classical test theory (CTT) is based on the assumption that a single underlying dimension (a trait or skill) is being measured, and that every person has a single true score, T, on that dimension. The important consideration is that all items on the test are measuring this skill or trait, and that the skill or trait is well defined. Each person's observed test score is assumed to be determined by his or her true score plus some error of measurement, which would either raise or lower the observed score relative to the person's true score.
The item response theory (IRT), also known as the latent response theory refers to a family of mathematical models that attempt to explain the relationship between latent traits (unobservable characteristic or attribute) and their manifestations (i.e. observed outcomes, responses or performance). IRT examines items individually to assess their ability to measure the trait. In classical test theory test items are not examined individually and reliability and measurement error are not directly related.
The goal of this thesis is to describe classical test and item response theory in some central aspects and compare them to each other.
References:
Robert F. DeVellis, (2006), Classical Test Theory, Medical Care, Volume 44, Number 11, Suppl 3, https://doi.org/10.1097/01.mlr.0000245426.10853.30
Steven P. Reise, Niels G. Waller, (2009), Item Response Theory and Clinical Measurement, Annual Review of Clinical Psychology, 5:27?48, https://doi.org/10.1146/annurev.clinpsy.032408.153553
Tenko Raykov, George A. Marcoulides, (2015), On the Relationship Between Classical Test Theory and Item Response Theory: From One to the Other and Back, Educational and Psychological Measurement, 1-14, https://doi.org/10.1177/0013164415576958
Kontakt: Thomas Welchowski, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 28.10.2024)Propensity Score Methods for Reducing the Effect of Confounding in Observational Studies.
Beschreibung: Description: The propensity score method is a statistical technique used to estimate the effect of a treatment or intervention on a response in observational studies. It involves calculating the probability (propensity score) that a subject would receive a treatment based on observed characteristics. The use of propensity score mimics the creation of treatments groups that are balanced in terms of known and unknown confounders.
The focus of this bachelor thesis is the study of different propensity score methods, such as matching, stratification, inverse probability weighting, and covariate adjustment. We will also study the merits and limitations of the propensity score methods.
The bachelor thesis must be written in English.
Possible Starting Points:
Lalani, N., Jimenez, R. B., & Yeap, B. (2020). Understanding propensity score analyses. International Journal of Radiation Oncology, Biology, Physics, 107(3), 404?407. https://doi.org/10.1016/j.ijrobp.2020.02.638
Austin P. C. (2011). An Introduction to Propensity Score Methods for Reducing the Effects of Confounding in Observational Studies. Multivariate behavioral research, 46(3), 399?424. https://doi.org/10.1080/00273171.2011.568786
Kontakt: Caren Hasler, E-Mail[ Einzelthema ]
Status: offen (erfasst / geändert: 28.10.2024)
vergeben:
Visualizing Longitudinal Data
Verwendung von Simulationsstudien in der Psychologie
The link between psychological theories and statistical models of data
Methoden der explorativen Faktorenanalyse
Anwendungen von Machine Learning zur Textanalyse in der Psychologie
Streit in der Statistik: Bayesianische vs. frequentistische Analysemethoden
Analysemethoden für Daily Diary oder Daily Intervention Studies
Fragwürdige Forschungspraktiken in der psychologischen Forschung und Empfehlungen zur Überwindung der aktuellen Replikationskrise
Fehlende Werte in psychologischer Forschung: Vor- und Nachteile verschiedener Lösungsansätze
Theorie und Praxis der Poweranalyse in der Psychologie
Paradoxe Statistik
Prädiktorenauswahl in Regressionsmodellen
Messung von psychologischen Eigenschaften und Fähigkeiten: Die Rolle der Summenscores als suffiziente Statistiken im Rasch Modell
Interpretationsmethoden für Machine Learning Verfahren: Ein Blick in die Black-Box?
Ein Überblick zu Anwendungen von Machine Learning in der Psychologie
Binäre logistische Regression in der psychologischen Forschung
Eine Übersicht zur Parallelanalyse
Ein Überblick zu Deep Learning in der Psychologie
Umgang mit Missing Data
Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen
Sind psychologische Studien replizierbar?
Sequentielles Testen
Ursachen und Lösungsansätze zu Publication Bias in psychologischer Forschung
Ein Blick in die Black Box von Machine Learning
Der p-Wert: Eine weit verbreitete und praktische Statistik?
Cross-over Experimente in der Psychologie und Medizin
Verfahren zur Bestimmung von Reliabilität von Fragebögen
Ausreisser in der linearen Regression
Sind psychologische Studien replizierbar?
Variable Importance in Linear Regression: It's All Relative.
The Speed-Accuracy Trade-Off: Modeling Response Times and Accuracy Simultaneously.
The value of plausible values in large-scale educational assessments. What, why and when?
Ein Überblick zu Netzwerkmodellen
Umgang mit Messfehlern in der Psychometrie
Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests
Ausreisser in der linearen Regression
Kann man gefälschten Forschungsergebnissen mit statistischen Mitteln auf die Schliche kommen?
Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen
Difference scores in psychological research, are they problematic? When and why (not)?
Big data and data mining in psychological and educational research: more than just buzz words?
Klassische Testtheorie im Vergleich zur Item Response Theorie
Fehlende Daten: Unterschiedliche Formen und statistischer Umgang
Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests
Mittelwertsvergleiche jenseits des t-Tests
Questionable research practices in psychological research and recommendations to overcome the current replicability crisis
The value of plausible values in large-scale educational assessments. What, why and when?
Simulationsstudien zu Faustregeln für Strukturgleichungsmodelle
Umgang mit Messfehlern in der Psychometrie
Die Entwicklung der methodischen Überprüfung von Testfairness
Vor- und Nachteile ausgewählter Methoden der Item Response Theorie
Methoden zur Berechnung der inneren Konsistenz eines psychologischen Tests
Mittelwertsvergleiche jenseits des t-Tests
Ursachen und Aufdeckung von Verzerrungen in Meta-Analysen
Testfairness und DIF-Methoden
Klassische Testtheorie im Vergleich zur Item Response Theorie
Fehlende Daten: Unterschiedliche Formen und statistischer Umgang
Berechnung von Konfidenzintervallen für die innere Konsistenz eines psychologischen Tests
Bestimmung der Dimensionalität von Daten mit explorativer Faktoren- und Hauptkomponentenanalyse
Verfahren zur Aufgabenauswahl bei adaptiver Testvorgabe
Verfahren zur Prüfung der Modellpassung im Rasch-Modell
Einführung in die Konstruktion von statistischen Tests und Konfidenzintervallen mit der Bootstrap-Methode
Klassifikations- und Regressionsbäume als Alternative zu parametrischen Regressionsmodellen
Propensity Scores zur Auswertung von quasi-experimentellen Studien
Testing and Confidence Intervals in the "New" Statistics
Accounting for Response Times using Diffusion Models