Similarity Texter

Additional Information

Test 2008 – S03 PlagiarismFinder

Software Steckbrief | Testüberblick | Kurzfassung| Testablauf / Kommentare | Screenshots | Firmenwerbung | Links

Software Steckbrief

Nummer S08-03
Produkt PlagiarismFinder
Hersteller Mediaphor Software Entertainment AD, Detmolder Str. 164, 33100 Paderborn
Wird auch vertrieben vom Beratungs- und Entwicklungsgesellschaft
Context mbH
Web-Site http://www.plagiarism-finder.de bzw. http://www.plagiarismfinder.de/
Software-Typ Programm für Windows, auch auf USB-Stick beziehbar für den mobilen Einsatz
Kosteninfo
  • Demo auf CD 10€
  • Vollversion / Lizenz 98€
  • ab 3 Lizenzen 88€
  • ab 5 Lizenzen 78€
  • ab 10 Lizenzen 68€
  • USB-Version / Lizenz 169€
Testdatum 03.09.2008

2009-03-10: Der Hersteller kündigt Version 2.0 an


Testüberblick

Grundtests

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
1 0 3 3 1 2 3 3 0 0 1 3 0 0 0 0 2 0 0 0 0 2 0 0 0 1 0 1 0 0 2

Bewertung: 5 korrekt / 4 fast / 5 halb / 17 falsch = (3:2:1:0)

28 / 80 Punkte

Platz: 15

Usability:

Kategorie Kommentar 0 – 3
Website + Kostentransparenz
  • Die Website ist veraltet.
  • Kostentransparenz ist ok
1
Layout und Beschriftungen
  • Das System muss installiert werden.
  • Das Layout ist sehr veraltet.
  • Das Programm spricht abwechselnd Englisch und Deutsch .
  • Beschriftungen sind ok.
1
Navigation
  • Bei Fehlern ist nur ein Neustart möglich.
  • Es gibt kein Zurück, nur Weiter.
1
Erklärungen in den Berichten
  • Die Berichte sind katastrophal.
  • Man erhält bei einem neuen Durchlauf radikal andere Ergebnisse und Werte.
  • Man muss selbst bei excite suchen.
  • Die Links sind zum Teil falsch hinterlegt.
0
Einpassung im Workflow
  • Klassensätze sind möglich.
  • Es gibt ständig Abstürze. (siehe Screenshot 1 )
1
Summe 4
Note 4,7

Platz 13


Kurzfassung

Platz 15 belegte mit 28 Punkten das einst gute System, Plagiarism-Finder. Die Herstellerfirma hat 2007 abgelehnt, ihre neue Version von uns testen zu lassen. WIr haben sie angeschrieben und gebeten, das neue System nun testen zu dürfen, bekamen jedoch keine Antwort. Die Homepage hat ja auch „News“ von 2004 auf der ersten Seite. Da jedoch viele kleine Zeitungen in der letzte Zeit über das System als sehr effektiv berichten, wollten wir es unbedingt testen. Ein Vertriebspartner hat uns dann eine Vollversion angeboten. Geliefert wurde die Version 1.2, die wir 2004 getestet hatten! Es wurde aber nach der Installation angeboten, ein Update auf 1.3 vorzunehmen, was wir auch taten. Unsere Registrierung schlug fehl, was eigentlich notwendig gewesen wäre, um an die Berichte innerhalb des Systems zu kommen. Aber da die Berichte unverschlüsselt auf der Festplatte lagen, waren wir dazu in der Lage sie dennoch zu bewerten. Die Anfertigung der Berichte war schon anstrengend, da immer nach 3-5 Tests “ ist kein gültiger Integerwert “ in einem Popup erschien und das System einfror. Nur ein Neustart erlaubte die nächsten 3-5 Tests zu machen. Bei Testwiederholungen – die zunächst unbeabsichtigterweise gemacht wurden – kamen interssanterweise verschiedene Ergebnisse heraus. Eine Mitarbeiterin der Universität Marburg hat uns während des Tests kontaktiert und fragte, ob wir ihr helfen könnten. Sie hatte auch bei diesem System die nicht-deterministischen Ergebnisse beobachtet und dachte, sie würde das System falsch bedienen. Daraufhin haben wir mehrere Versuche unternommen und mussten in der Tat feststellen – auch Tests, die innerhalb von 10 Minuten wiederholt wurden, schwanken zwischen 43% und 80% Plagiat (bei einem Text, der ein Komplettplagiat ist!). Wir haben zwar die ersten Ergebnisse, die wir bekommen haben, jeweils bewertet, aber so ein System ist nicht für den Einsatz tauglich.


Testablauf/Kommentare

  • Wir erhielten die Version 1.2, aber ein Update auf 1.3 wird sofort angeboten. Obwohl die Aktivierung scheitert, funktioniert etwas, die Reports werden unverschlüsselt als HTML auf der Festplatte gespeichert und können ausserhalb des Systems angesehen werden
  • Eine Sortierung nach Dateityp geht nicht
  • Nach 3 -5 Tests bricht das System immer wieder mit (‚“ ist kein gültige Integerwert‘) zusammen. Ein
    Neustart des Programms ist dann nötig, das ist auf Dauer sehr nervig. (siehe Screenshot 1 )
  • Das Englisch ist sehr gewöhnungsbedürftig
  • Auf Grund der schlechten Ergebnisse probierten wir verschiedene Einstellungen, dabei stellt sich heraus, dass man bei gleichen Einstellungen und gleichen Texten verschiedenen Ergebnisse erhält. Das bedeutet, dass PlagiarismFinder nicht deterministisch ist, und damit unbrauchbar für diesen Zweck ist.
  • Wir entschieden uns vorerst den Test abzubrechen. Später setzten wir den Test fort mit den jeweiligen Default-Einstellungen.
  • Das System nutzt Excite als Suchmaschine, wählt dabei aber sehr ungünstige Wörter. Wenn man selbst Wörter geschickter aus dem Text mit Excite sucht, findet man auch Quellen.
  • Häufig sind Übereinstimmungen in Prozent angegeben, aber es gibt keine Quellen!
  • Es werden nur ca 13 % vom Text zum Vergleich genommen.
  • Jeder zweite Link ist nicht richtig, da der Suchtext vom vorherigen genommen wird (Links sind falsch hinterlegt), von diesen Links liefern nur wenige Ergebnisse, die man dann selber mit excite überprüfen muss. Da kann man auch selbst die Wörter nehmen und in Google oder Excite eingeben.

Einzeltests

  • 05: zu wenige Übereinstimmung (%), daher wird 1
    Punkt abgezogen
  • 08: es wird einen Übereinstimmung von 50% angegeben, aber keine Quellen, daher gibt es keine Punkte (siehe Screenshot 2 )
  • 16: 43%, aber für was? nur nach mehrfachem Probieren bekommen wir eine Quellenangabe => -1 Punkte
  • 17: SquareDance: mal 10% mal 14% mal 17% und für was?
  • 18: für was 42%?
  • 21: Computerwoche, Sueddeutsch, manche Links haben nichts gefunden
  • 25: nur Wikipedia-Kopien mit weniger als 20 %
  • 26: 6 % wovon, excite findet nichts
  • 27: nur ein Direktlink zur Wikipedia

Sonderfälle

  • 25e: Der Trick mit dem anderen ASCII -Zeichen bringt das Programm völlig durcheinander
  • Sonderfall Collusion: keiner der 8 Collusiontestfälle wurde als Collusion gemeldet.

Screenshots

Integer Error
Screenshot 1: Integer Error

50 Prozent für Nichts
Screenshot 2: 50 Prozent für Nichts


Firmenwerbung

„Plagiarism-Finder ist eine Windows-Software, die sich auf jedem PC mit Internet-Anschluß installieren lässt. Sie wählen die zu überprüfenden Dokumente aus und erhalten das Ergebnis der Überprüfung nach einigen Minuten. Anschließend wissen Sie genau, welche Teile der Arbeit aus dem Internet stammen. “


Links

offizielle Website http://www.plagiarism-finder.de