Navigation auf uzh.ch
Durch Klick auf die einzelnen Themen werden die Detail-Informationen angezeigt.
Für die Vergabe der Bachelorarbeitsthemen FS25: schreiben Sie bitte eine Email mit den gewünschten BA-Themen (Priorität 1-3), bis 24.2.25 an methoden@psychologie.uzh.ch. |
offen:
Beschreibung: Im Jahr 2015 wurde eine Forschungsarbeit veröffentlicht, in der versucht wurde, eine Reihe psychologischer Studien zu replizieren. Erreicht werden konnte dies aber nur bei einem Bruchteil der Studien. Als Reaktion darauf kam es zu einer breiten Diskussion darüber, wie die Replizierbarkeit wissenschaftlicher Studien in der Psychologie und darüber hinaus erhöht werden kann, und zu einer Vielfalt konkreter Vorschläge. Die Literaturarbeit hat folgende Ziele: 1. Die Studie(n) zu beschreiben, die zu der erwähnten Diskussion über die Replizierbarkeit geführt haben und 2. die im Zuge dieser Diskussion erbrachten Lösungsvorschläge und Möglichkeiten zu ihrer praktischen Umsetzung zu beschreiben.
Literatur:
Lindsay, S. D. (2015). Replication in Psychological Science. Psychological Science, 26(12), 1827?1832. doi: 10.1177/0956797615616374
Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349 (6251), aac4716. doi: 10.1126/science.aac4716
Kontakt: Patrick Schmidt, E-Mail
Beschreibung: In vielen Bereichen der Psychologie werden geschriebene und gesprochene Texte analysiert, um daraus Schlussfolgerungen für psychische Prozesse und Eigenschaften zu ziehen. Fortschritte im Bereich des Machine Learning, welche in den letzten Jahren erzielt wurden, ermöglichen es, Teile dieser Textanalysen weitgehend automatisiert durchzuführen. Die vorliegende Arbeit soll zunächst einen groben Überblick über die zentralen Schritte einer solchen Textanalyse geben. Bei Bedarf können darüber hinaus weiterführende Themen, wie geeignete Softwarepakete oder konkrete Anwendungen der Machine-Learning gestützten Textanalyse in der Psychologie behandelt werden.
Literatur:
Kennedy, B., Ashokkumar, A., Boyd, R. L., & Dehghani, M. (2021). Text Analysis for Psychology: Methods, Principles, and Practices. https://doi.org/10.31234/osf.io/h2b8t. Preprint verfügbar unter: https://psyarxiv.com/h2b8t/
Kjell, O., Giorgi, S., & Schwartz, H. A. (2023). The text-package: An R-package for analyzing and visualizing human language using natural language processing and transformers. Psychological Methods. https://doi.org/10.1037/met0000542. Preprint verfügbar unter: https://psyarxiv.com/293kt/
Kontakt: Patrick Schmidt, E-Mail
Beschreibung: Classical statistical inference is based on a fixed sample size. If an experiment is extended or stopped based on the observed results (so called ?optional stopping?), the classical inference is invalid. Many believe this issue to be at the heart of the replication crisis. In this thesis, two alternatives to fixed samples sizes and optional stopping will be reviewed: group sequential designs, which correct p-values for planned interim analyses, as well as the novel concept of e-values. E-values, like p-values, can be used to test hypotheses and create confidence intervals. Additionally, e-values allow valid inference at any time point regardless of the sample size. Thus, an experimental procedure or a meta-analysis can be stopped and prolonged based on the observed data without invalidating drawn conclusions.
In this thesis, these two approaches, group sequential designs and anytime-valid inference, should be described in contrast to standard inference in the presence of optional stopping. The strengths and weaknesses of the new approaches in the context of psychological research should be discussed.
This thesis can be written in English or German.
References
Ly, A., Boehm, U., Grünwald, P., Ramdas, A., & van Ravenzwaaij, D. (2024). Safe Anytime-Valid Inference: Practical Maximally Flexible Sampling Designs for Experiments Based on e-Values. https://doi.org/10.31234/osf.io/h5vae
Ramdas, A., & Wang, R. (2024). Hypothesis Testing with E-values. arXiv preprint arXiv:2410.23614.
Schulz, K. F., & Grimes, D. A. (2005). Multiplicity in randomised trials II: subgroup and interim analyses. The Lancet, 365(9471), 1657-1661.
Simmons, J. P., Nelson, L. D., & Simonsohn, U. (2011). False-positive psychology: Undisclosed flexibility in data collection and analysis allows presenting anything as significant. Psychological science, 22(11), 1359-1366.
Kontakt: Patrick Schmidt, E-Mail
Beschreibung: Die lineare Regression beschreibt, wie eine oder mehrere Variablen (z.B. Alter, Bildungsstand) eine abhängige Variable (z.B. Zufriedenheit im Beruf) beeinflussen. Neben direkten Anwendungen der linearen Regression bildet sie auch die Grundlage für fortgeschrittene statistische Verfahren wieStrukturgleichungsmodelle oder Mediationsanalysen. Allerdings ist die lineare Regression sehr anfällig für Abweichungen von Modellierungsannahmen. Man kann beispielsweise zeigen, dass eine einzige Beobachtung mit extremen Werten (sogenannte Ausreisser) genügt, um die Validität der Ergebnisse einer Regressionsanalyse zu zerstören. In dieser Bachelorarbeit fassen Studierende die Literatur zu den folgenden sich ergebenden Fragestellungen zusammen. 1. Wie sind Ausreisser definiert und wie kann man sie erkennen? 2. Wie geht man mit Ausreissern um? 3. Was für ausreisserrobuste Alternativen zur klassischen linearen Regression gibt es?
Bachelor theses on this topic can also be written in English.
Referenzen:
Aguinis, H., Gottfredson, R. K., & Joo, H. (2013). Best-practice recommendations for defining, identifying, and handling outliers. Organizational Research Methods, 16(2), 270-301. (https://doi.org/10.1177/1094428112470848)
Alfons, A., Ate?, N. Y., & Groenen, P. J. F. (2022). A Robust Bootstrap Test for Mediation Analysis. Organizational Research Methods, 25(3), 591-617. (https://doi.org/10.1177/1094428121999096)
Kontakt: Max Welz, E-Mail
Beschreibung: Fragebögen sind ein essenzielles Werkzeug für die empirische Forschung in der Psychologie. Es kann jedoch passieren, dass manche Studienteilnehmenden nicht immer achtsam auf Fragen antworten, beispielsweise weil sie sich die Fragen nicht gründlich durchlesen, sie nicht ausreichend verstehen, oder nicht ausreichend über sie nachdenken. Dieses Phänomen ist in der Literatur bekannt als «careless responding» oder «inattentive responding» (Deutsch: unachtsames Antworten). Unachtsames Antworten stellt ein wichtiges empirisches Problem dar, da bereits ein paar wenige solcher Antworten Studienergebnisse verfälschen können. Es ist daher wichtig, unachtsame Studienteilnehmende zu identifizieren und/oder deren Antwortverhalten statistisch zu modellieren, um eine Verfälschung der Studienergebnisse zu verhindern. In dieser Bachelorarbeit fassen Studierende den aktuellen Stand der Literatur zu unachtsamem Antworten sowie vorgeschlagene Lösungsansätzen zusammen.
Bachelor theses on this topic can also be written in English.
Referenzen:
Ward, M. K., & Meade, A. W. (2023). Dealing with careless responding in survey data: Prevention, identification, and recommended best practices. Annual Review of Psychology, 74(1), 577-596. (https://doi.org/10.1146/annurev-psych-040422-045007)
Meade, A. W., & Craig, S. B. (2012). Identifying careless responses in survey data. Psychological Methods, 17(3), 437?455. (https://psycnet.apa.org/doi/10.1037/a0028085)
Kontakt: Max Welz, E-Mail
Beschreibung: An important step when designing an empirical study is to justify the sample size that will be collected. The key aim of a sample size justification for such studies is to explain how the collected data is expected to provide valuable information given the inferential goals of the researcher. The goal of this thesis is to describe and discuss some aspects for sample size justification, for example
1) collecting data from (almost) the entire population,
2) choosing a sample size based on resource constraints,
3) performing an a-priori power analysis,
4) planning for a desired accuracy,
5) using heuristics, or
6) explicitly acknowledging the absence of a justification.
References:
Daniel Lakens, (2022), Sample size justification, Collabra: Psychology, 8(1), https://doi.org/10.1525/collabra.33267
Russell V. Lenth, (2001), Some Practical Guidelines for Effective Sample Size Determination, The American Statistician, 55(3), 187-193, https://doi.org/10.1198/000313001317098149
Scott E. Maxwell, Ken Kelley, Joseph R. Rausch, (2008), Sample Size Planning for Statistical Power and Accuracy in Parameter Estimation, Annual Review of Psychology, 59: 537-563, https://doi.org/10.1146/annurev.psych.59.103006.093735
Kontakt: Thomas Welchowski, E-Mail
Beschreibung: Classical test theory (CTT) is based on the assumption that a single underlying dimension (a trait or skill) is being measured, and that every person has a single true score, T, on that dimension. The important consideration is that all items on the test are measuring this skill or trait, and that the skill or trait is well defined. Each person's observed test score is assumed to be determined by his or her true score plus some error of measurement, which would either raise or lower the observed score relative to the person's true score.
The item response theory (IRT), also known as the latent response theory refers to a family of mathematical models that attempt to explain the relationship between latent traits (unobservable characteristic or attribute) and their manifestations (i.e. observed outcomes, responses or performance). IRT examines items individually to assess their ability to measure the trait. In classical test theory test items are not examined individually and reliability and measurement error are not directly related.
The goal of this thesis is to describe classical test and item response theory in some central aspects and compare them to each other.
References:
Robert F. DeVellis, (2006), Classical Test Theory, Medical Care, Volume 44, Number 11, Suppl 3, https://doi.org/10.1097/01.mlr.0000245426.10853.30
Steven P. Reise, Niels G. Waller, (2009), Item Response Theory and Clinical Measurement, Annual Review of Clinical Psychology, 5:27?48, https://doi.org/10.1146/annurev.clinpsy.032408.153553
Tenko Raykov, George A. Marcoulides, (2015), On the Relationship Between Classical Test Theory and Item Response Theory: From One to the Other and Back, Educational and Psychological Measurement, 1-14, https://doi.org/10.1177/0013164415576958
Kontakt: Thomas Welchowski, E-Mail
Beschreibung: Description: The propensity score method is a statistical technique used to estimate the effect of a treatment or intervention on a response in observational studies. It involves calculating the probability (propensity score) that a subject would receive a treatment based on observed characteristics. The use of propensity score mimics the creation of treatments groups that are balanced in terms of known and unknown confounders.
The focus of this bachelor thesis is the study of different propensity score methods, such as matching, stratification, inverse probability weighting, and covariate adjustment. We will also study the merits and limitations of the propensity score methods.
The bachelor thesis must be written in English.
Possible Starting Points:
Lalani, N., Jimenez, R. B., & Yeap, B. (2020). Understanding propensity score analyses. International Journal of Radiation Oncology, Biology, Physics, 107(3), 404?407. https://doi.org/10.1016/j.ijrobp.2020.02.638
Austin P. C. (2011). An Introduction to Propensity Score Methods for Reducing the Effects of Confounding in Observational Studies. Multivariate behavioral research, 46(3), 399?424. https://doi.org/10.1080/00273171.2011.568786
Kontakt: Caren Hasler, E-Mail
vergeben: