Boardunity & Video Forum

Boardunity & Video Forum (https://boardunity.de/)
-   CalitrixWiki Supportforum (https://boardunity.de/calitrixwiki-supportforum-f68.html)
-   -   Ideen rund um Spam (https://boardunity.de/ideen-rund-um-spam-t3103.html)

TRS 11.05.2005 00:33

Ideen rund um Spam
 
Nachdem ich heute eine erste Lösung zum Schutz vor Spam erstellt habe, so will ich noch einmal weitere Ideen und Lösungen vorstellen.

Grafische Prüfung
Die im Moment sicherste Möglichkeit um Spambots und Screenreader auszuschließen. Nach erstmaliger erfolgreicher Nutzung kann man via Cookie in Zukunft auf diese Prüfung verzichten.

Keywordblock
Da es in der Regel immer die gleichen Links sind, so kann man ohne größere Probleme in den Einstellung eine Reihe an bösen URLs definieren.

htaccess
Ich verwende eine Möglichkeit, in welcher ich eine Reihe an Keywords in der htaccess Datei definiere, welche nicht im Posting vorhanden sein dürfen. Ergänzungen müssen leider immer von Hand in der Datei eingefügt werden.

So, gute Nacht :)

Luki 11.05.2005 00:40

also mein Spambot würde auch Cookies schlucken ;)
die JS Sache ist cool! - aber mein Bot hat zu 90% JS deaktiviert ;)

ich sehe leider keine wirkliche Lösung bis auf die "menschliche" aber "nervige" Imagekontrolle!

per PHP kann man allerdings ebenfalls einige Funktionen basteln um sich zu schützen:

- IP Check
- Kontrolle auf doppelte / mehrfache Anfragen bzw. Postings
- Flood Check staffeln

exe 11.05.2005 00:55

Zitat:

Zitat von Reimer
Keywordblock
Da es in der Regel immer die gleichen Links sind, so kann man ohne größere Probleme in den Einstellung eine Reihe an bösen URLs definieren.

Es gibt dazu schon Blacklists die von der Wikigemeinde gepflegt werden. Eine weitere Möglichkeit wäre, dass die Software diese Liste selbst pflegt. Ein Administrator klickt in der History auf "diese Änderung war Spam" und die Software trägt die neuen URL inklusive enthaltener Stichwörter in eine Blacklist ein.

Linkspam allgemein: wird eine Änderung getätigt welche lediglich Links hinzufügt kann diese bei einem auffällig hohen Grad neuer Links automatisch abgelehnt werden. Einige Wikis berichten das sie solche Methoden sehr erfolgreich einsetzen.

Es gibt einige weitere Eigenschaften an denen man Bots erkennen kann. Beispielsweise tun diese in den seltensten Fällen ihre Änderung überprüfen, also die eben bearbeitete Seite nochmal aufrufen (was normalerweise ja automatisch geschieht da die Software auf die eben bearbeitete Seite weiterleitet).

Eine grafische Überprüfung finde ich nicht gut. Der Spamschutz sollte soweit wie möglich vom Benutzer unbemerkt laufen um eventuelle Hürden beim Bearbeiten einer Seite zu vermeiden.

Zitat:

htaccess
Ich verwende eine Möglichkeit, in welcher ich eine Reihe an Keywords in der htaccess Datei definiere, welche nicht im Posting vorhanden sein dürfen. Ergänzungen müssen leider immer von Hand in der Datei eingefügt werden.
Scheidet wohl aus da die technische Hürde zu groß ist.

Ich werde nach der Version 1.0 beginnen verschiedene Ansätze auf calitrix.de - und optional anderen Wikis soweit von den Betreibern gewünscht - zu testen und Funktionierendes in der Version 1.1 einbauen.

Aber um mich mal selbst zu zitieren: Letztendlich kann nur ein Wiki spamfrei bleiben, dass von einer aktiven Benutzerschar gepflegt wird.

TRS 11.05.2005 08:46

Zitat:

Zitat von Luki
also mein Spambot würde auch Cookies schlucken ;)
die JS Sache ist cool! - aber mein Bot hat zu 90% JS deaktiviert ;)

Du hast genau den Sinn dieser Abfrage erkennt. Spambots sind vermutlich auf keine Software exakt zugeschnitten, sondern nutzen die in der Regel gleichen Editfunktionen der Wikis. Durch mein Beispiel oben müsste der Spambot aber erst die Checkbox aktivieren um überhaupt das Formular abzusenden. So zumindest funktioniert es auch erfolgreich in einigen Blogs.

Luki 11.05.2005 09:18

Zitat:

Zitat von Reimer
Du hast genau den Sinn dieser Abfrage erkennt.

verkannt ;) ich würde einfach &agb=0 dran hängen bzw. bei meinem Spambot per Post mitgeben!

exe 11.05.2005 13:32

Es ist unwahrscheinlich das ein Spambotautor dies miteinbauen würde solange er damit keine Masse erreicht. Die wenigsten Bots sind auf genau ein Wiki oder eine genaue Software abgestimmt.

Ein Beispiel, welches dies zu bestätigen scheint: praktisch jeder Spam, den ich auf calitrix.de bekommen habe, taucht auf der Seite "Wiki" oder "InterWiki" auf. Das sind Seiten die in praktisch jedem Wiki vorhanden und einfach über eine Suchmaschine zu finden sind. Dadurch muss man sich nicht auf ein bestimmtes Wiki anpassen sondern spamt einfach diese Seiten die sowieso überall vorhanden sind.

Dazu kommt, das die meisten Spams eine fehlerhafte Linksyntax benutzt haben die in anderen, verbreiteten Engines funktioniert, nicht aber im CalitrixWiki. Dadurch waren viele Spams nutzlos da die Verlinkung mit den beworbenen Seiten nicht funktioniert hat. Ein Indiz übrigens dafür, das Spambots ihre Änderungen nicht überprüfen.

MaMo 11.05.2005 14:42

Hi.

Habe eben folgende Klasse gefunden: http://mamonede.users.phpclasses.org...kage/2291.html
Könnte man die nicht benutzen um Bots auszutricksen? Ist nicht sehr verbreitet und so sollte somit erstmal sicher sein. Werde das die tage mal testen, leider hat der IE im Quirks-Modus ein paar Probleme damit.

EDIT: Eigentlich sollte das in einen ganz anderen Thread. Aber hier passts auch, also bleibts hier :D

MfG MaMo

TRS 13.05.2005 22:23

http://www.sunflyer.ch/item.php?i=490
http://www.pepilog.de/artikel/asp-nur-ohne-kekse.htm


Alle Zeitangaben in WEZ +1. Es ist jetzt 16:36 Uhr.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25