Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen gezeigt.

Link zu der Vergleichsansicht

spam [2011/08/15 20:56] (aktuell)
Zeile 1: Zeile 1:
 +=====  Spam im VeganWiki ​  =====
 +
 +Ähnlich wie in Blogs oder E-Mails gibt es auch in Wikis viele Probleme mit Spam, also Beiträgen meist kommerzieller (selten auch "​nur"​ politischer) Natur, die wild auf irgendwelche Seiten verweisen um deren Position in den Suchmaschinen zu verbessern. Jeder Benutzer kann diese Änderungen von Hand rückgängig machen, doch manchmal tritt Spam recht massiv auf, so dass es sinnvoll erscheint, sich dagegen mit technischen Mitteln zu wehren ...
 +
 +=====  BannedContent:​ Sperren bestimmter Ausdrücke ​  =====
 +
 +Eine bislang recht erfolgreiche Methode gegen Spam im Wiki besteht in einer Liste [[BannedContent|BannedContent]],​ mithilfe derer bestimmte Ausdrücke (typische Begriffe, Domains) aus Spambeiträgen gesperrt werden. Die Liste kann nur mit Administratorrechten verändert werden. Der Nachteil: gelegentlich machen Links oder andere Ausdrücke das Posten regulärer Beiträge unmöglich.
 +
 +//Aus einem Kommentar auf [[Wiki:​Startseite|Wikithemen]]://​
 +
 +Um den Vandalismus vom 16.4.05 rückgängig zu machen, musste beim ersten Artikel bei den beiden Domains jeweils ein Unterstrich eingefügt werden, damit der Text nicht vom Spamfilter blockiert wird.
 +
 +  * Da es langsam überhand nimmt, hab ich die Topleveldomains .r_u und .s_u jetzt komplett gesperrt. Wenn jemand eine veganismusrelevante Seite mit diesen Domains verlinken möchte, schreibt sie einfach in der Form http www name su und ich (oder ein anderer Admin) ergänzt sie dann. Gleiches gilt für andere gesperrte Ausdrücke. Danke an alle, die sich beim Aufräumen der Spameinträge beteiligen. -- Tim 2005-03-27 10:26
 +
 +//Aus einem Änderungskommentar von Andreas zur Seite [[konsumgueter:​lebensmittel:​Zucker|Zucker]]://​
 +
 +Link zu "​Südzucker"​ nicht möglich, da angeblich verbotene Zeichenfolgen,​ und zwar .su - Bitte die Seite mit den verbotenen Zeichenfolgen wieder löschen, da sie mehr behindert als nützt. ​
 +
 +  * Okay, ich nehm '​.su'​ erstmal raus und werd versuchen, die "​Fehlermeldung"​ bei unbeabsichtigten Sperrungen so umzuformulieren dass zumindest deutlich wird, dass die Seite durch Ändern der Schreibweise des betroffenen Ausdrucks doch noch gespeichert werden kann. Außer bei '​.su'​ ist das Problem meines Wissens bislang kaum aufgetreten,​ so dass ich das BannedContent-Konzept ansich noch nicht infrage stellen würde, zumal es meines Erachtens noch an sinnvollen Alternativen gegen Spam mangelt .... -- Tim 2005-09-06 01:10
 +
 +=====  Die Rollbackfunktion ​  =====
 +
 +[[Admins|Admins]] haben die Möglichkeit,​ sämtliche Seiten im VeganWiki mit einem einzigen Klick auf einen beliebigen früheren Stand zurückzusetzen. Dazu ist lediglich in den RecentChanges bei der letzten Änderung, welche nicht als Spam eingestuft wird, "​rollback"​ auszuwählen. Die Rücksetzung löscht allerdings nicht die letzten jeweiligen Seitenversionen,​ sondern fügt eine neue Seitenversion mit dem letzten spamfreien Inhalt ein. Auf diese Weise ist sichergestellt,​ dass ein versehentliches (oder böswilliges) Rollback auch selbst wieder rückgängig gemacht, und von allen anderen nachvollzogen werden kann.
 +
 +Wer im VeganWiki regelmäßig Spam entfernt, sollte ein Adminpassword beantragen, um auf dieses nützliche Tool Zugriff zu haben.
 +
 +Bitte nutzt die Rollbackfunktion ausschließlich gegen Spam.
 +
 +----
 +[[Ordner:​Wiki|Ordner:​Wiki]] [[Wiki:​Startseite|Wikithemen]]
 +
 +----
 +
 +=====  Meinungsbild:​ was tun gegen Spam?   =====
 +
 +Im Moment nimmt mir die Spammerei im Wiki ein wenig Überhand - was sollten wir dagegen tun? Die einfachste Variante wäre, das Wiki nur für registrierte Nutzer zum Editieren freizugeben,​ was die Spambots erstmal für einige Zeit abhalten sollte - ich persönlich halte nicht viel davon, zumal ein solcher Schritt auch für neue Besucher eine zusätzliche Barriere darstellen würde.
 +
 +Ansonsten wären das Oddmuse:​SpamCatching_Module und die Oddmuse:​Despam_Extension unbedingt einen Versuch wert. Ich schau mir das in den nächsten Wochen mal an.
 +
 +Wikipedia:​Captcha wäre auch hilfreich, wenngleich für Sehbehinderte nachteilig. Man müsste überlegen, wie man das ausgleichen könnte - z. B. durch ein Editpassword,​ mit dem sich das Captcha ausblenden lässt. Eine solche Funktion gibt es meines Wissens bei Oddmuse noch nicht.
 +
 +Ansonsten könnten wir uns damit helfen, soweit es geht die [[BannedContent|BannedContent]]-Seite zu pflegen - vielleicht gibt es ja noch Interessenten,​ die uns dabei unterstützen könnten.
 +
 +Noch irgendwelche Ideen?
 +[[User:​Tim|Tim]] 2006-06-02 18:43
 +
 +
 +
 +
 +----
 +
 +Ich habe noch eine: Wenn du zu schnell bist, bist du ein Bot. Mit dem Klick auf "Seite bearbeiten"​ startet ein Timer. Wenn du die Änderungen speicherst, stoppt er. Wenn die verstrichene Zeit kleiner als - sagen wir mal 2 Sekunden ist, können wir davon ausgehen, dass ein Bot seinen Müll bei uns loswerden wollte. Soll ich das mal in Perl implementieren?​ Vorteil gegenüber anderen Lösungen: Absolut barrierefrei und nicht so lästig wie Captchas. Mich zumindest nerven die Dinger immer. Natürlich könnten Spammer auf die Idee kommen eine Wartezeit einzubauen, aber dann wären ihre Bots nicht mehr effektiv. Schließlich ist es ihre Aufgabe möglichst viel Werbung in möglichst kurzer Zeit zu verbreiten.
 +[[User:​http://​veganismus-blog.de|TomFalkner]] 2006-06-02 22:40
 +
 +
 +----
 +
 +Und noch eine Möglichkeit,​ die simpler zu implementieren ist und - solange Spammer das Formular nicht scannen - effektiv schützt. Wir legen ein Secret-Tag an:
 +
 +<input type="​hidden"​ name="​spamcheck"​ value="​Spam ist blöd, darum soll ich nicht spammen"​ /> 
 +
 +Und fragen bei der Verarbeitung des Formular die POST-Variable spamcheck ab. Ist sie nicht deklariert, war offensichtlich ein Spammer am Werk und wir verwerfen den Kommentar.
 +[[User:​TomFalkner|TomFalkner]] 2006-06-04 09:17
 +
 +
 +----
 +
 +Wir sollten uns auch darauf einigen, Despam nicht als "​kleine Änderungen"​ zu markieren. Dann bekommt man zumindest in der einfachen Ansicht der RecentChanges wieder einen brauchbaren Überblick. So erscheint nur der Seitentitel mit dem Änderungskommentar "​despam"​ oder ähnliches, und Besucher wissen dass sich hinter dieser Änderung vermutlich nichts inhaltlich interessantes verbirgt. Oder es erscheint der Spameintrag,​ aber dann ist man der erste Besucher der den Spam sieht und kann ihn entfernen. Mir wären kleine Änderungen zwar auch lieber, aber die Spamtrolle nutzen dieses Feature fast nie.
 +[[User:​Peppermint|Peppermint]] 2006-06-05 20:09
 +
 +
 +----
 +
 +Noch eine Idee: nach längerer Beobachtung wird ziemlich deutlich, dass die Spambots sich immer einige wenige Seiten heraussuchen und diese gezielt zuspammen. Uns wäre wahrscheinlich schon viel geholfen, wenn wir die Bots auf belanglose Seiten (wie [[Tim-Nachrichten-Archiv|Tim-Nachrichten-Archiv]] oder [[Beiträge löschen, verschieben,​ umbenennen|Beiträge löschen, verschieben,​ umbenennen]]) lenken, und diese belanglosen Seiten dann aus den RecentChanges und RSS, eventuell sogar aus dem Index verbannen. Siehe auch Wikipedia:​Honeypot. Es hat sich gezeigt, dass die Bots dann neue Seiten aussuchen, wenn ihre bisherigen Ziele gesperrt werden. Deshalb würde ich vorschlagen,​ auch die Seite [[organisationen:​Maqi|Maqi]] zwischenzeitlich zu sperren um sie wieder spamfrei zu bekommen.
 +[[User:​Tim|Tim]] 2006-06-07 12:48
 +
 +
 +----
 +
 +Tom, deine Vorschläge find ich super. Etwas ähnliches gibt es in Oddmuse schon, aber für Schreiben und Lesen zusammengefasst,​ was das Öffnen mehrerer Seiten hintereinander weg (zum Beispiel zur weiteren Lektüre in neuen Tabs) ziemlich stört. Aber nur auf's Schreiben bezogen fänd ich das echt sinnvoll!
 +[[User:​Tim|Tim]] 2006-06-07 13:32
 +
 +
 +----
 +
 +Noch einer: die [[BannedContent|BannedContent]]s per CronJobs täglich mit zentralen Blacklists abgleichen, und auch selbst diese zentralen Listen ergänzen. Sollte mittel- bis langfristig kein großes Problem sein.
 +[[User:​Tim|Tim]] 2006-06-07 14:20
 +
 +
 +----
 +
 +Honeypots sollten vielleicht regelmäßig per CronJob durch eine leere Seite ersetzt werden. Vorher könnte man die Spameinträge nutzen, um die BannedContent-Liste automatisch zu ergänzen, z. B. um Domainnamen die man aus der URL extrahiert.
 +[[User:​Peppermint|Peppermint]] 2006-06-16 00:48
 +
 +
 +----
 +
 +Der Link "Seite bearbeiten"​ und das Kommentarfenster sollten bei Honeypots ausgeblendet werden, falls doch nochmal ein User darauf landet.
 +
 +Einträge auf Honeypots können schon beim Speichern auf Ausdrücke untersucht werden, die Bestandteil von URLs sind. Diese ließen sich dann automatisch in die BannedContent eintragen, wenn sie hinreichend lang oder kompliziert sind. Wenn es genug Honeypots gibt, ist die Wahrscheinlichkeit groß, dass ein Spambots zuerst oder recht bald auf einem Honeypot Einträge vornimmt. Dann sperrt er sich selbst aus, weil sein Keyword gleich in der BannedContent landet.
 +[[User:​Peppermint|Peppermint]] 2006-06-16 10:10
 +
 +
 +----
 +
 +Nochmal zum Captcha: Oddmuse:​QuestionAsker_Extension wäre eine gute Alternative,​ die auch schon implementiert ist. Sie hätte den Vorteil, dass sehbehinderte Nutzer nicht ausgeschlossen würden. Auch die Begrenzung auf einige Seiten ist möglich, so dass wir die [[LockedPage|Sperrungen]] vermeiden könnten ...
 +[[User:​Tim|Tim]] 2006-06-19 06:44
 +
 +
 +----
 +
 +Problem bei solchen Lösungen ist, dass sie die User nerven und die Benutzung des Wikis verkomplizieren. Ich bin weiterhin der Ansicht, dass wir einen Weg einschlagen sollten, der den BenutzerInnen keine Eingaben von Bestätigungscods abverlangt. Wenn die von mir vorgeschlagene Zeitmessung zu umständlich ist (ich habe derzeit leider kaum Zeit mich in Oddmuse einzuarbeiten),​ ließe sich stattdessen auch ein verstecktes INPUT-Feld einführen. Solange die Spammer die Formulare nicht scannen, was sie meist aus Aufwandsgründen nicht tun, dürfte uns das schon ein guter Schutz sein. 
 +Die Kampf gegen Spam mittels Blacklist halte ich übrigens für ein hoffnungsloses Unterfangen,​ zumal durch die Blacklist manchmal auch Ham (darf mensch das in einem VeganWiki so schreiben? ​  ​*g ​ *) geblockt wird.
 +[[User:​http://​vegansismus-blog.de|TomFalkner]] 2006-06-19 10:28
 +
 +
 +----
 +
 +Bei der Zeitmessung gäbe es allerdings auch noch ein Problem: die Kommentare. Da müsste man in Prinzip bei jeder aufgerufenen Seite schon einen Timer starten. Bei der Anzahl an Anfragen (unter anderem auch durch Bots) weiß ich nicht, ob der Server das mitmacht?
 +
 +Die Eingabe von Codes zum Bearbeiten würde ich nur für Seiten ansetzen, die explizit vor Spam geschützt werden sollen und zu diesem Zweck derzeit gesperrt sind. Da ist ein Code immer noch besser, als wenn die Seite gar nicht bearbeitet werden kann.
 +[[User:​Peppermint|Peppermint]] 2006-06-20 06:45
 +
 +
 +----
 +
 +Könnten auch bitte so kindische Zahlenkombis wie 69 oder 88 gesperrt werden? Mit so nem Unsinn muss man sich doch nicht ernsthaft beschäftigen. Außerdem hat es nicht im Geringsten was mit Veganismus zu tun. Die sind doch krank die Leute die so was hier rein schreiben!
 +
 +PS. Ich wollte das bei den gesperrten Wörtern rein stellen, das ging nicht. Die Kommentarfunktion sollte da aber doch auch offen sein, oder?
 +
 +Danke!
 +[[User:​Feilchen|Feilchen]] 2006-07-19 10:18
 +