Test von Plagiatserkennungssoftware
Die Forschungsgruppe Plagiat der HTW Berlin testet in unregelmäßigen Abständen kommerzielle und experimentelle Plagiatserkennungssoftware. Über die Jahre ist ein Corpus von Testfällen entstanden, der verschiedene Arten von Plagiaten aufweist. Die Testfälle werden mit der Software getestet, zu der wir Zugang erhalten konnten, und der Grad der Plagiatserkennung wird ermittelt. Seit 2008 wird auch die Handhabbarkeit (Usability) der Systeme betrachtet.
Bisher liegen folgende Ergebnisse vor:
- Softwaretest 2020: Foltýnek, T., Dlabolová, D., Anohina-Naumeca, A. et al. Testing of support tools for plagiarism detection. Int J Educ Technol High Educ 17, 46 (2020). https://doi.org/10.1186/s41239-020-00192-4
- Softwaretest 2013 (mit Christopher Möller, Jannis Touras, Elin Zincke und Matthias Zarzecki)
- Kollusionserkennung 2012 (Englisch) (mit Katrin Köhler und Christopher Möller)
- Softwaretest 2010 (mit Katrin Köhler)
- Softwaretest 2008 (mit Katrin Köhler)
- Softwaretest 2007 (mit Martin Pommerenke)
- Softwaretest 2004 (mit Gabi Wohnsdorf)
Die Ergebnisse unserer Untersuchung stellen in keiner Weise eine Verkaufsempfehlung dar. Wir haben lediglich versucht die Effektivität der Plagiatserkennung zu bewerten und die Tauglichkeit im (Hoch-) Schulalltag zu messen. Institutionen, die Plagiatserkennungssoftware anschaffen wollen, sollten für sie interessante Systeme entsprechend ihren eigenen Anforderungen evaluieren. Die hier dargestellten Ergebnisse können dafür lediglich Anregungen geben.
Cloud-Software vs. menschliche Crowd in der Plagiaterkennung, Ergebnisse unseres Test der Arbeit von Karl-Theodor zu Guttenberg erschienen in der iX 06/2011.