Similarity Texter

Additional Information

Test 2008 – s07 XXXX

Software Steckbrief | Testüberblick | Kurzfassung| Testablauf / Kommentare | Screenshots | Firmenwerbung | Links

Software Steckbrief

Nummer S08-07
Produkt XXXX
Hersteller
Software-Typ
Kosteninfo
Testdatum 03.09. + 12.09. + 18.09.2008

Testüberblick

Grundtests

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
0 -1 3 3 3 3 3 2 3 -1 0 3 0 -1 3 3 3 3 -1 -1 0 3 -1 -1 3 2 0 2 -1 3 2

Bewertung: 14 korrekt / 4 fast / 0 halb / 5 falsch / 8 Abzug= (3:2:1:0)

42 / 80 Punkte

Platz: 14

Usability:

Kategorie Kommentar 0 – 3
Website + Kostentransparenz
  • Keine Kostentransparenz.
  • Es ist alles auf einer Seite.
1
Layout und Beschriftungen
  • problematisches Layout
  • Wir haben den <Bildschirmelement> nicht verstanden.
  • Zum Resultat muss erst gescrollt werden.
1
Navigation
  • sehr schwerfällig
  • Es gibt 6 Texte und 6 Buttons.
1
Erklärungen in den Berichten
  • Wenn nichts gefunden wird, bekommt man nichts, keinen Bericht oder irgendeine Rückmeldung.
  • Stopwörter wie ist oder the werden nicht ausgeschlossen.
  • Die Anzahl der Wörter ist nicht nachvollziehbar.
2
Einpassung im Workflow
  • kein Klassensatz möglich, es gibt nur Copy&Paste
  • Eine Parallelisierung ist nicht möglich. Das konnten wir selbst mit Anleitung nicht umsetzen, da die Buttons in der Realität nicht mit der Anleitung übereinstimmten .
0
Summe 5
Note 4.3

Platz 12


Kurzfassung

Platz 14 mit 42 Punkten erreichte das System XXXX, als letztes der noch ausreichenden Systeme. Die Firma, die uns explizit um eine Bewertung ihres neuen Systemes gebeten hatte, hat durch einen Anwalt die Unterlassung der Veröffentlichung von diesem Bericht erwirkt. Die Firma behauptet, wir hätten mit eine Beta-Version getestet. Wir haben jedoch nur den Zugang genutzt, der uns vom Hersteller gemeldet wurde. Daher bleibt dieses System namenlos und Hinweise, die auf das System Rückschlüsse geben könnten, sind durch Funktionselemente in Spitzenklammern gesetzt.

Die Usability des Systems wurde mit 4,3 bewertet – wir sollten Ordner erstellen, wo man nichts hochladen konnte. Wir mussten die Tests einzeln hochladen und laufen lassen und haben gelegentlich Berichte bekommen. Die Berichte grenzten an unbrauchbar, weil sie <komplizierte Anordnung des Reports> anboten. Um mehr Information zu bekommen, musste man auf <Knopf>  klicken, was aber auch recht lange dauerte und nicht wirklich nützlich war. Fand das System keine Quellen (vermutlich), wurde kommentarlos zurück zur Anfangsseite gesprungen. Das passierte aber gelegentlich auch mitten im Arbeiten, wir waren oft verwirrt darüber, wo wir uns gerade befanden. Geliefert wurde nur die Anzahl der Treffer, nicht die Prozentangabe. Wir haben dann „grün“ gefärbte Resultate nicht bewerten, auch wenn sie durchaus satte Plagiate gefunden haben.


Testablauf/Kommentare

  • Wir brauchten mehrere Anläufe um uns anzumelden, bekommen aber keine Legitimation. Irgendwann bekamen wir dann ein Passwort (im Klartext verschickt), konnten damit jedoch unseren Login nicht aktivieren. Erst nach Intervention der Hersteller klappt es.
  • Es gibt die Möglichkeit einen <Bildschirmelement> zu erstellen, wir bekamen dabei zwar einen Serverfehler, trotzdem ist der <Bildschirmelement> plötzlich da.
  • Es gibt einen <Bildschirmelement> – wozu dieser <Bildschirmelement> da ist, bleibt uns jedoch verborgen. Die Reports werden nirgendwo gespeichert.
  • Alle Dokumente müssen per Hand reinkopiert werden.
  • Das System arbeitet recht schnell.
  • Es werden keine Prozente angegeben, nur die Anzahl der Treffer. Man muss extra auf <Knopf> gehen – die Aufbereitung der Details (Analyse) dauert etwas.
  • Die Scroll-in- Scroll-Navigation ist sehr ungünstig.
  • Wir beschließen, alle gemeldete Quellen zu ignorieren, die grün gefärbt sind.
  • Wenn nichts gefunden wird, bekommt man nichts, keinen Bericht oder irgendeine Rückmeldung. Dafür vergeben wir -1 Punkt.
  • Es wird häufig innerhalb der Wörter abgeschnitten (the statt their) und auch die Anzahl der Wörter ist teilweise sehr unverständlich. (siehe <Screenshot>)

Einzeltests

  • 00: 2. Ergebnis ein 97-Seiten langes PDF als Quelle
  • 01, 09, 13, 18, 19: Bearbeitung verschwindet. Wir haben -1 Punkt vergeben. Wenn man das nicht berücksichtigt, hat das System 5 zusätzliche Punkte, ist aber immer noch Kategorie „ausreichend“.
  • 02: findet die Quelle in Brigitte – es wird jedoch nichts eingefärbt, bei zurück plötzlich ein anderer Bericht wo etwas eingefärbt wurde
  • 04: Scroll-in-Scroll sehr ungünstig, alle Quellen gefunden
  • 06: Wikipedia erst an 5. Stelle
  • 07: Wikipedia ganz unten und grün, wird also nicht gewertet
  • 10: Alle Ergebnisse sind grün, Fussnoten werden an 1. Stelle gemeldet, 2. Stelle – bei Amazon hat er 0 Wörter gefunden. (siehe <Screenshot>) => Keine Punkte da nichts gefunden wurde.
  • 12: Mikrobrauereien: alles grün – Für die 1. Quelle wurden 9 Wörter gefunden. Mehrfach „of the“ (auch hier abgeschnitten…)
  • 15: Einzelne Wörte werden ausgeschnitten.(siehe <Screenshot>)
  • 20: alles grün

Sonderfälle

  • Sonderfall Kollusion: keiner der 8 Kollusionstestfälle wurde als Kollusion gemeldet.

Screenshots

Die Screenshots sind entfernt worden, da man sonst auf das System schliessen könnte.
Screenshot 1: Das sind 4 Wörter?


Screenshot 2: 0 Wörter stimmmen überein


Screenshot 3: Warum werden Wörter ausgelassen


Firmenwerbung

Die Firmenwerbung ist entfernt worden, da man sonst auf das System schliessen könnte.


Links

offizielle Website XXXX