Similarity Texter

Additional Information

Kurzfassung 2008

Es gibt einige Programme, die Unterstützung bei der Suche nach Plagiatoren bieten sollen. Man muss sich aber darüber im Klaren sein, dass sie nicht zweifelsfrei Plagiatoren überführen können, auch können sie nicht 100% aller Plagiate entdecken. Gerade Plagiate von nicht im Internet vorhandenem Material sind natürlich nicht auffindbar. Aber auch im Internet Vorhandenes ist nicht zuverlässig auffindbar, wie unsere Tests immer wieder bewiesen haben.

Man muss sich auf seine Intuition als Lehrkraft verlassen – ist dieser Autor, diese Autorin dazu in der Lage, so zu schreiben? Gibt es irgendetwas Seltsames an diesem Aufsatz? Man sollte einem Verdacht immer mit der nächst besten Suchmaschine nachgehen, aber die Suche nicht unendlich lange betreiben. Software-Programme könnten hilfreich sein – oder auch nicht. Wir haben 2008 unseren Corpus von inzwischen 31 Aufsätzen (2 Originalaufsätze und 29 Plagiate der verschiedenen Arten) plus 9 Collusionstestfälle verwendet, um die am Markt befindlichen Programme im September und Oktober 2008 zu testen. Der Corpus ist als Übungsteil in der Lerneinheit „Fremde Federn Finden“ aufgenommen.

Es waren theoretisch 93 Punkte erreichbar, jedoch wurde für das Ranking der Erwartungswert  von 80 verwendet.  Plagiate, die von keinem der Produkte erkannt wurden, sind ausserhalb der Bewertung gestellt worden.

Es wurde 2008 nicht nur der Grad der Plagiatsfindung auf einer Skala 0-3 bewertet, sondern wir haben auch die Usability der Systeme in verschiedenen Kategorien bewertet.

Sehr gute Software (72-80 Punkte)

Leider ist diese Kategorie, wie auch im Test 2007, überhaupt nicht besetzt.

Gute Software (60-71 Punkte)

  • Platz 1 geht an das System von der Firma Indigo Stream Technologies Ltd., Copyscape Premium. Die Firma, gegründet von Gideon Greenspan hat auch „Google Alerts“ in ihrer Produktpalette. Die schlichte Oberfläche ist einfach zu bedienen und die gefundenen Plagiate lassen sich sehen. Insgesamt 70 Punkte erreichte dieses System, da die Berichte etwas umständlich zu handhaben waren, wurde die Usability-Note von 2,7 vergeben, was Platz 3 entspricht. Es konnte nur eine URL oder Datei zur Zeit geprüft werden und es fehlte eine Quantifizierung des Übereinstimmungsgrads. Jeder Test kostet 5 US-Cent und ist daher preiswert für kleinere Überprüfungsmengen.
  • Platz 2 ist ein neues System, Plagiarism-Detector, mit 68 Punkte. Wir wurden auf das System durch Blogspam aufmerksam, den ein „anonymous“ auf unserem Plagiatsblog hinterlassen hat. Sie haben Links zu ihrem System in vielen Foren im Internet angeschlagen, auch auf Seiten vor denen der neue Firefox wegen enthaltener Schädlinge warnt.Die Ergebnisse dieses Systems stimmten relativ stark mit denen von Platz 1 überein, daher muss man annehmen, dass sie auch Googles API verwenden. Lediglich für vier Testfälle waren leichte Abweichungen zu verzeichnen. Es war einer von drei Kandidaten im Test, die lokal zu installieren waren. Es war notwendig, .NET auf dem Rechner einzuschalten, keine Trivialität für viele Anwender. Laut Werbung können PDF-Dateien untersucht werden, diese wurden im Test jedoch als fehlerhaft abgewiesen, damit wurden die reine Textfassungen der Testfälle verwendet. Die Suche lief immer mit 8 aufeinanderfolgenden Wörtern, dann 7 übersprungenen, dann wieder 8 Wörtern. Da gefundene Plagiatsstellen nicht ergänzt wurden, haben die Berichte einen flickenteppichartigen Charakter. Die Usability-Note war dennoch 2,3, was den zweiten Platz einnimmt, weil die Handhabung des Systems sich sehr gut in den Arbeitsprozess einpasste.Die Herstellerfirma wirbt in Australien mit einer Supportnummer auf ein mobiles Gerät aus der Ukraine, die Firmeninhaben sind über russische E-Mail-Accounts nur teilweise erreichbar. Programmiert wurde das System nach Angaben der Firma von einem ukrainischen Englisch-Dozenten. E-Mails, in denen wir baten, mit ihm Kontakt aufzunehmen, blieben unbeantwortet. Sie geben als Kontakt-Adresse die Universität Sydney in Australien an. Eine Anfrage unsereseits dort hat jedoch ergeben, dass die Firma an der Universität unbekannt ist, es also keine Kooperation gibt und dass sie recht irritiert darüber sind, ihre Telefonzentrale in der Werbung der Firma wiederzufinden.Firmenreaktion 2008-11-04
  • Platz 3 wird von der kostenlosen Schwester von Platz 1 belegt, Copyscape Free. Dieses System, das zehn Tests pro Domäne pro Monat erlaubt, hat 64 Punkte erlangt und dieselbe Usability-Note von 2,7. Die Differenzen traten interessanter Weise nur bei unseren neuen Testfälle auf. Wenn man eine zugewiesene IP hat oder in einer großen Organisation arbeitet, kann es sein, dass alle kostenlosen Suchvorgänge bereits verbraucht sind. Somit ist es nicht klar, ob man dieses System auch nutzen kann, wenn man auf die Seite kommt. Es gab bei beiden Copyscape-Versionen unerklärliche Probleme mit Umlauten – manchmal konnte das System mit Umlauten umgehen, manchmal wurden Worte mit Umlauten ausgespart. Es war kein Muster ersichtlich.
  • Platz 4 geht an das schwedische System Urkund. Das System hat 62 Punkte bekommen und die Usability-Note 3,7. Letzteres lag an der unschönen Eigenart, immer wieder schwedische Beschriftungen zu verwenden und an dem stark verbesserungsfähigen Layout von Bildschirm und Berichten. Die Tests haben sehr lange gedauert, wir haben die Dauer nicht messen können. Sie waren am Ende des Testtages noch nicht fertig, lagen jedoch am nächsten Morgen vor.
  • Platz 5 ist zweimal belegt mit 61 Punkten, beide Systeme stammen aus Deutschland.
    • Docoloc, von der Universität Braunschweig, bekam jedoch lediglich eine 4,0 bei der Usability-Note, wegen der absoluten Undurchschaubarkeit der Berichte, der Unverständlichkeit und nicht Druckbarkeit der „Terms of Service“. Die Berichte beginnen mit einer Auflistung von „Stellen“ mit vielen URLs. Es ist gar nicht angegeben, wie stark die jeweiligen „Stellen“ mit den Quellen übereinstimmen. Es gibt zwar weitere Zahlen, aber sie machen nicht sehr viel Sinn. Die Berichte zeigen zwar die Plagiatsverdachtsstellen farblich an und geben einige mögliche Quellen in einem Pop-Up-Fenster an, aber wenn man darauf klickt, bekommt man die angeblichen Quelle in einem neuen Fenster gezeigt, ohne dass die Verdachtsquelle markiert ist. Bei einer 262 Seiten starken „Quelle“ ist die Suche fast so mühselig, wie selbst in einer Suchmaschine nachzuschauen. Es werden viele unsinnige, angebliche Quellen angegeben, die jedoch Spam-Seiten sind.
    • PlagAware, ein kommerzielles System um Seiten online zu überwachen, bekam für sein neues System (wir haben eine Beta-Version getestet) die beste Usability-Note im Test – 1,7 – obwohl sich das System nicht wirklich gut in den Workflow einer Hochschule einpasst. Sie fordert doch, dass die zu testenden Seiten online sind und ein Logo mit Link auf die Firmenhomepage tragen. Das neue System bot zwar eine Upload-Funktionalität an, die wir nur einmal testeten, aber diese Berichte waren nicht übersichtlich und nicht klickbar. Die Berichte über die Online-Test sind aber ausgezeichnet lesbar. Störend ist lediglich, dass oft eine Vielzahl von Links gemeldet werden, die sehr mühsehlig durchzusehen sind, weil schwer zu deutende Zahlen für das Ranking verwendet werden. Erst im Bericht wird die nützliche Angabe gemacht, wieviel des Testkandidaten plagiiert ist. Auch wurde einmal ein sehr starkes „Plagiat“ gemeldet (99%), das beim besten Willen nicht in der angegebene Quelle zu finden war. Einmal waren die Ergebnisse von der Fraktur-Seite unter Djembe zu finden. Trotz Abzüge für diese Patzer hat das System gut abgeschnitten.
  • Platz 7, mit 60 Punkten gerade eben noch die Note „Gut“ erhalten, hat der Sieger des Tests 2007 belegt, Ephorus. Von der Usability her, wie bereits im Test 2007 vermerkt, was das System eher im Mittelfeld mit 3,3 angesiedelt. Das System bietet drei Stärken an, streng, standard und nachgiebig, wobei nicht klar war, was genau das bedeutet. Getestet wurde die jeweilige Defaulteinstellung, standard. Die Testfälle wurden ohne Erlaubnis in einer Firmendatenbank gespeichert. Es wurde nicht gefragt, welche Optionen, wir beim hochladen haben wollten: sichtbar – überprüfen (der Default), sichtbar – nicht überprüfen oder unsichtbar. Erst beim Lesen der Dokumentation stellt sich heraus, dass bei der Wahl von „sichtbar“ die Dokumente auf dem Server gespeichert werden. Die Bedienung war recht umständlich, es musste beim Einzelhochladen erst mal ein Name für die Datei angegeben werden. Beim Hochladen einer Zip-Datei wurden die Namen automatisch vergeben.

Befriedigende Software (48-59 Punkte)

  • Platz 8 geht an ein System, das sich 2007 geweigert hat, sich testen zu lassen, weil sie gerade dabei waren, das System auf den neuesten Stand zu bringen. Das ehemalige MyDropBox-System wurde 2007 von Blackboard aufgekauft, in sein Learning Management System integriert und wird jetzt als SafeAssign vermarktet. Wir bekamen kein Antwort auf unsere E-Mails, aber eine befreundete Hochschule hat uns kollegialerweise einen Zugang ermöglicht, in dem uns ein Lernraum eigens für die Test eingerichtet wurde. Das System hat 57 Punkte erreicht, die Usability wurde mit 2,7 im guten Mittelfeld bewertet. Sie pflegen einen recht informellen Stil („Wanna learn more?“) und verwenden in typischer Blackboard-Mannier nur einen Bruchteil der Bildschirmfläche für die eigentliche Arbeit. Nur in etwa 25% bleiben für die Plagiatsüberprüfung, nach dem die sieben (!) verschiedenen Navigationsblocks sich erstmal auf dem Bildschirm breitgemacht haben
  • Platz 9 belegte das polnische System strikeplagiarism mit 55 Punkten. Im Test 2007 hat das System nicht mal ein Viertel der möglichen Punkte erlangen können, jetzt sind es über die Hälfte. Die Usability ist jedoch mit 3,3 immer noch unverändert schlecht. Es sind viele Schreibfehler in dem sehr polnischen Englisch. Man ist dazu gezwungen, alle Aufsätze in deren Datenbank zu speichern, und ein Titel und ein Autor müssen zunächst für jedes Werk angegeben werden. Die Quellen werden nicht markiert, dadurch ist das Auffinden recht mühsam. Manche Links in den Berichten sind nicht anklickbar, manche doch, es ist recht unübersichtlich. Es werden zwei Koeffizienten berechnet, die recht wissenschaftlich klingen, die jedoch keinerlei Bedeutung haben. Sobals sie einen Teil in einer Quelle gefunden haben, suchen sie diesen in den anderen Quellen nicht mehr.
  • Platz 10 mit 54 Punkten ist ein deutsches System, PlagiatCheck. Das System verlangt, dass die zu testenden Dateien online verfügbar sind und dass sie ein eingebundenes Banner aufweisen, die zur Homepage verweisen. Somit können sie ihren Google-PageRank auf einfache Art und Weise erhöhen. Die Usability-Note war mit 3,0 im Mittelfeld, wobei es mit einem älteren Mozilla nicht nutzbar war. Jede Suche dauert 2-5 Minuten, während dessen kann kein weiterer Test gemacht werden. Für die Entwickler ist es sicherlich interessant die Ausgabe zu betrachten, die immer Auskunft darüber gibt, welche Dateien gerade einer näheren Betrachtung unterzogen worden sind. Der Begriff „Relevanz“ gibt zwar eine Zahl an, aber es ist nicht klar, was das bedeutet. In den Quellen sind dann die entsprechenden Stellen leider nicht markiert.
  • Platz 11 belegte das System AntiPlag mit 51 Punkten. Das ist kein kommerzielles System, sondern eine Semesterarbeit von Studierenden der Wirtschaftsinformatik an der Universität Dortmund bei Prof. Dr. Lackes. Das in Java geschriebene System war schon problematisch zu installieren, da die Version von Java auf unserem Testrechner (der bewusst veraltet ist, um Systeme in Schulen zu simulieren) nicht dazu ausreichte. Wir mussten Java auf den neuesten Stand bringen und die Firewall abschalten (warum ist uns nicht klar geworden) um das System zu starten. Es konnte nur eine Arbeit zur Zeit geprüft werden und die Prüfung dauerte recht lange. Ein Testfall – Telnet – ist trotz mehrmaligen Versuchen nie fertig geworden. Wir haben wegen des experimentellen Charakters des Systems keine Usability-Note vergeben.
  • Platz 12 mit 49 Punkten hat das alte PlagAware Alt System erhalten, das wir am Anfang der Testreihe getestet haben.

Ausreichende Systeme (40-47 Punkte)

Diese Systeme sind in etwa mit ein Münzwurf zu vergleichen, um eine Entscheidung über das vorhanden sein eines Plagiats oder nicht. Dennoch liefern sie Ergebnisse – und wenn sie Plagiate finden, dann ist das erstmal hilfreich. Problematisch ist jedoch das Übersehen von eigentlich auffindbaren Plagiaten.

  • Platz 13 mit 45 Punkten ist das sich selbst als Marktführer bezeichnende System TurnItIn. Die Usability des Systems wurde mit 3,0 im Mittelfeld gesetzt, weil die Anmeldeprozedur und das Abbilden von Kurse und Assignments – Aufgaben, die eigentlich in einem Lernmanagementsystem stattfinden sollten – kompliziert sind. Das liegt sicherlich an die Komplexität des Systems. Studentennamen mussten immer eingegeben werden und konnten im nachhinein nicht korrigiert werden. Die 6+ Navigationsleisten, teilweise mit identischen Beschriftungen die zu verschiedenen Ziele führten („Instructor“, „Accounts“) waren verwirrend.
    Auch gibt es keine Kostentransparenz auf der Seite, eine Lizenz ist immer individuell zu verhandeln.
    Das System hat immerhin als einer der wenigen auch Kollusion erkennen können, aber in den Berichten waren die Kollusionen teilweise nicht wegklickbar, um an die darunterliegenden Quellen zu kommen. Die ersten 20 Testfälle waren in der TurnItIn Datenbank bereits gespeichert. Sie waren nicht von uns, sondern von eine Firma, die wir 2007 bei der Verwendung von TurnItIn als eigene Suchdienst erwischt haben (siehe „Eine kuriose Geschichte„) Die Bewertung des Plagiatsgrades war suspekt – in der Regel wurden die Prozentsätze der gefundenen Quellen einfach addiert. Aber gefunden hat das System nicht viel. Das kann daran liegen, dass das System auf den anglo-amerikanischer Markt ausgerichtet ist und mit Umlauten, wie sie in deutschen Texten vorkommen, nicht adequat umgehen kann.
    Wenn es uns gelang, die überdeckenden Arbeiten auszuschliessen, stellten wir erneut fest, dass die WIkipedia selten als Quelle gefunden wurde.
    Auch Amazon fehlte in der Liste und manche der gemeldete „Quellen“ führten zu Web-Fehler (Fehler 404, komplett falsche Seiten (Spam) oder Zeitüberschreitung). Vermutlich waren die Seiten nicht mehr online. Das System ist nach wie vor empfindlich für die unzähligen Spam-Seiten, die erstmal ausgeschlossen werden müssen, in der Hoffnung, etwas zu finden.
    Bei FTF mussten 22 Spamseiten (die oft nicht mal den Text der Wikipedia
    enthielten) ausgeschlossen werden, bis die Wikipedia erschien. Umlaute haben, wie immer, Probleme bereitet, aber dazu später mehr.
    Das war im ganzen ein recht anstrengender Prozess. Weil TurnItIn doch recht verbreitet ist, haben wir den Test am Ende des Testzeitraums erneut durchgeführt, um auszuschliessen dass wir Bewertungsfehler gemacht haben. Wir haben im ersten Durchgang nur 43 Punkten vergeben, haben also als Testergebnis den leicht höheren Wert des zweiten Durchgangs verwendet.
  • Platz 14 mit 42 Punkten erreichte das System XXXX, als letztes der noch ausreichenden Systeme. Die Firma, die uns explizit um eine Bewertung ihres neuen Systemes gebeten hatte, hat durch einen Anwalt die Unterlassung der Veröffentlichung von diesem Bericht erwirkt. Die Firma behauptet, wir hätten mit eine Beta-Version getestet. Wir haben jedoch nur den Zugang genutzt, der uns vom Hersteller gemeldet wurde. Daher bleibt dieses System namenlos und Hinweise, die auf das System Rückschlüsse geben könnten, sind durch Funktionselemente in Spitzenklammern gesetzt.Die Usability des Systems wurde mit 4,3 bewertet – wir sollten Ordner erstellen, wo man nichts hochladen konnte. Wir mussten die Tests einzeln hochladen und laufen lassen und haben gelegentlich Berichte bekommen. Die Berichte grenzten an unbrauchbar, weil sie <komplizierte Anordnung des Reports> anboten. Um mehr Information zu bekommen, musste man auf <Knopf>  klicken, was aber auch recht lange dauerte und nicht wirklich nützlich war. Fand das System keine Quellen (vermutlich), wurde kommentarlos zurück zur Anfangsseite gesprungen. Das passierte aber gelegentlich auch mitten im Arbeiten, wir waren oft verwirrt darüber, wo wir uns gerade befanden. Geliefert wurde nur die Anzahl der Treffer, nicht die Prozentangabe. Wir haben dann „grün“ gefärbte Resultate nicht bewerten, auch wenn sie durchaus satte Plagiate gefunden haben.

Nicht Ausreichende Systeme (0-39 Punkte)

Diese Systeme haben zwar den Test-Parcours durchlaufen können, lieferten aber unzureichende Ergebnisse.

  • Platz 15 belegte mit 28 Punkten das einst gute System, Plagiarism-Finder. Die Herstellerfirma hat 2007 abgelehnt, ihre neue Version von uns testen zu lassen. Wir haben sie angeschrieben und gebeten, das neue System nun testen zu dürfen, bekamen jedoch keine Antwort. Die Homepage hat ja auch „News“ von 2004 auf der ersten Seite. Da jedoch viele kleine Zeitungen in der letzte Zeit über das System als sehr effektiv berichten, wollten wir es unbedingt testen. Ein Vertriebspartner hat uns dann eine Vollversion angeboten. Geliefert wurde die Version 1.2, die wir 2004 getestet hatten! Es wurde aber nach der Installation angeboten, ein Update auf 1.3 vorzunehmen, was wir auch taten. Unsere Registrierung schlug fehl, was eigentlich notwendig gewesen wäre, um an die Berichte innerhalb des Systems zu kommen. Aber da die Berichte unverschlüsselt auf der Festplatte lagen, waren wir dazu in der Lage sie dennoch zu bewerten. Die Anfertigung der Berichte war schon anstrengend, da immer nach 3-5 Tests “ist kein gültiger Integerwert“ in einem Popup erschien und das System einfror. Nur ein Neustart erlaubte die nächsten 3-5 Tests zu machen. Bei Testwiederholungen – die zunächst unbeabsichtigterweise gemacht wurden – kamen interssanterweise verschiedene Ergebnisse heraus. Eine Mitarbeiterin der Universität Marburg hat uns während des Tests kontaktiert und fragte, ob wir ihr helfen könnten. Sie hatte auch bei diesem System die nicht-deterministischen Ergebnisse beobachtet und dachte, sie würde das System falsch bedienen. Daraufhin haben wir mehrere Versuche unternommen und mussten in der Tat feststellen – auch Tests, die innerhalb von 10 MInuten wiederholt wurden, schwanken zwischen 43% und 80% Plagiat (bei einem Text, der ein Komplettplagiat ist!). Wir haben zwar die ersten Ergebnisse, die wir bekommen haben, jeweils bewertet, aber so ein System ist nicht für den Einsatz tauglich.
  • Platz 16 belegte mit nur 19 Punkten das neue TurnItIn Global. Die Firma wirbt damit, dass sie jetzt Texte in über 30 Sprachen verarbeiten können. Da unser Testmaterial deutsch ist, haben wir diesen gesonderten Link verwendet, um unsere Tests durchlaufen zu lassen. In der Regel haben sie nur für das Nicht-Auffinden von Quellen bei den Originalen Punkte bekommen und für das Auffinden von zwei Quellen, die im Internet als PDF vorliegen: telnet und blogs. Das Ergebnis ist ernüchternd, aber einleuchtend, wenn man sich überlegt, dass Turnitin mit Hashwerten arbeitet. Die große Datenbank der Hashwerte ist durch die Nicht-Berücksichtigung von Umlauten entstanden. Dadurch ist auch der Erkennungsrate bei dem Standard-TurnItIn so schlecht gewesen, vermuten wir, weil Worte mit Umlaut immer wieder eine „Übereinstimmungskette“ unterbrochen haben. Bei TurnItIn Global werden die Umlaute in der Hashberechnung für die Testfälle mit einbezogen – aber das ergibt natürlich keine Treffer in den Datenbanken, weil die dort gespeicherten Daten ohne Umlaute gehasht wurden! Dieses System ist also für Deutsch unbrauchbar.

Abgebrochene Tests

Die folgenden Systeme konnten aus unterschiedlichen Gründe nicht getestet werden:

  • ArticleChecker konnte nicht zu Ende getestet werden. Die Nutzeroberfläche war vollgespickt mit Anzeigen (lustigerweise auch eins zu Plagiarism-Detector) und verwirrend angeordnet. Als Ergebnisse kamen nur Google-Resultate, die man selbst bewerten musste. Das war nicht wirklich, was wir unter einem Plagiatserkennungssystem angesehen haben, daher wurde der Test abgebrochen.
  • CatchItFirst war schon im Test 2007 aufgefallen, da es immer „100% original!!“ geliefert hat, egal was man tat. Jetzt hat man Texte hochgeladen, die dann wieder verschwinden, Berichte entstehen aber auch nicht. Wo keine Berichte sind, kann auch nichts bewertet werden.
  • CheckForPlagiarism.net ist die neue Domäne von iPlagiarismCheck. Die alte Site ist nach wie vor online und hat ein neues Layout. Der Beispielbericht ist jedoch immer noch stark an TurnItIn angelehnt und es werden ebenfalls die gefundene Prozente addiert. Die „24/7“ Support ist – wie bei iPlagiarismCheck – leider immer offline. Wir haben einmal offiziell die Nutzung angefragt, aber keine Antwort erhalten. Da wir sehr gerne wissen wollten, ob sie immer noch TurnItIn als Suchquelle verwenden, haben wir 5 Testfälle gewählt, die TurnItIn gut gefunden hatte, und haben 15 € (20$) durch PayPal überwiesen, um diese 5 Tests machen zu können. Das Geld wurde sofort abgebucht und wir durften uns auch bald einloggen – mit einer Kennung, die uns der Inhaber von iPlagiarismCheck zusandte. Die Berichte trugen ein Timestamp mit „Canadian Daylight TIme“, obwohl die Büros angeblich in New York und London stehen. Obwohl sie TurnItIn im Aussehen immer noch sehr ähneln, sind die gemeldeten Treffer doch verschieden. Es hätte uns noch 65 $ gekostet, die anderen Testfälle zu machen, daher haben wir davon abgesehen und den Test abgebrochen.
  • paperseek hatte einen abgelaufenen Google-API Schlüssel und lieferte daher keine Ergebnisse. Die jüngste Meldung auf der Seite war von 2005, wir haben den Versuch abgebrochen.
  • ProfNet ist eine gerade breit in Deutschland beworbene Dienstleistung/Online-Lösung von Uwe Kamenz (Autor von „Professor Unrat“). Er hat E-Mails an viele Hochschulen geschickt und angeboten, für zunächst 1000 Euro, dann für nur 500 Euro Jahresgebühr, die lästige Plagiatssuche zu übernehmen, Qualitätsberichte zu erstellen und Plagiate auszurotten. Wir wollten gerne sein System in unseren Test mit aufnehmen und haben einen recht intensiven E-Mail-Austausch dazu gehabt. Er beharrte darauf, kein System, sondern eine Dienstleistung anzubieten. Wir haben damit kein Problem gehabt, einen Service zu testen, aber auch das wurde uns nicht gestattet. Man befürchtete, dass Konkurrenten die Ideen übernehmen könnten, wenn wir sie testen würden. Letztenendes wurde uns der Test verwehrt, aber uns angeboten, eine Kooperation einzugehen, was wir dankend abgelehnt haben. Wir baten darum, den Schriftwechsel wenigstens veröffentlichen zu dürfen, auch dieses wird uns nicht gestattet. Daher kann hier kein Test stehen.
  • WebMasterLabor hat immer noch ein Link auf eine paper mill auf seiner Seite, wir haben dennoch Tibet versucht. Es hat ewig gedauert und es wurde dann nichts gefunden. Wir haben von weiteren Tests abgesehen.

Kollusions-Erkennung wird auf einer gesonderten Seite besprochen.