taggling, bloggeria, tag2tag und Co.

Seit ein paar Minuten ist das alte tag2tag.de von taggling.de abgelöst worden und auch bloggeria.de erscheint im neuen Gesicht.

taggling.de ist in erster Linie ein Tag-Aggregator, der Flickr.com, Furl.net, del.icio.us, blogg.de, technorati.com und colr.org berücksichtigt. Ein eigener Crawler hat inzwischen mehr als 140.000 Tags eingesammelt und in einer Datenbank abgelegt. Im Moment kann auf taggling.de zu einem Tag angezeigt werden, welche Informationen dazu eingesammelt wurden. Die Redirects von furl.net werden dabei schon vorher aufgelöst, so dass der Benutzer sofort sehen kann, wohin es geht und Duplikate zwischen del.ico.us und furl.net vermieden werden.

Eine Suche mit logischen Verknüpfungen wie „UND“ oder „ODER“ sind theoretisch ebenfalls machbar, dieses Feature ist aber noch nicht implementiert, da die Belastung der Datenbank noch nicht abzusehen ist.

Mit Bloggeria.de hatte ich vor einigen Monaten schon versucht einen thematischen Überblick über die Blogosphäre zu erreichen. Damit wäre dann aber auch eine redaktionelle Bearbeitung notwendig gewesen, welche sich von mir alleine nicht bewältigen lies. Mit den Tags habe ich nun die Möglichkeit, mehrere Tags zu einem Themenkomplex zusammenzuführen und automatisch aktualisieren zu lassen. So kann man sich z.B. unter http://www.bloggeria.de/topic/kultur zum Thema „Kultur“ informieren. Dazu gehören dann Tags wie „Museum“, „Kultur“, „Literatur“, „Kunst“, etc.. Auch hierbei werden die Tags aus allen möglichen Bereichen ausgewertet, so dass neben Blogbeiträgen auch Links, Photos und sogar Farben (colr.org) angezeigt werden.

Weitere Themen sind in Vorbereitung, wer Ideen oder Vorschläge dazu hat, kann sich gerne bei mir melden.

Für die nahe Zukunft sind folgende Erweiterungen geplant:
– englische Version (taggling.com / bloggeria.com)
– Blättern durch die Ergebnisse

Die bereits angesprochene Suche mit booleschen Operatoren, RSS-Feeds sowie benutzerdefinierte Themen sind eigentlich nur eine logische Konsequenz des Ganzen. Bei taggling.de und bloggeria.de setze ich im Hintergrund ein Caching-System auf Tag- und Themen-Ebene ein, dass ich aber bei der richtigen Suche nicht mehr aufrechterhalten kann. Hier muss sich zeigen, wie stark die Datenbank im normalen Betrieb belastet wird.

news.individual.net: Überweisung auch möglich

Nach dem der Usenet-Provider news.individual.net Mitte Februar den kostenlosen Zugang durch einen kostenpflichtigen ersetzte, gab es einen Sturm der Entrüstung. Nicht etwa, weil die Kosten zu hoch wären (10,- Euro im Jahr wäre es vielen Benutzern wert gewesen), sondern weil die Bezahlungen nur über den Dienstleister Firstgate möglich waren.

Das hat auch mich davon abgehalten, news.individual.net weiterhin zu benutzen. Wenn ich jemanden Geld zukommen lassen möchte, möchte ich mich dafür nicht noch zusätzlich registrieren müssen.

Gerade erreicht mich nun aber eine Mail von news.individual.net, dass ab sofort auch Banküberweisungen möglich sind: http://news.individual.net/commercial.php#announcement-2005-03-23

Für mich zu spät, da Kristian mir dankenswerterweise seinen Feed zur Verfügung stellte und ich somit einen eigenen kleinen Newsserver auf einem Rechner betreibe…

Website Hijacking

Claus Schmidt writes about Page Hijack: The 302 Exploit, Redirects and Google. Although Google is not the only search engine with this problem (Yahoo is no longer vulnerable), Claus asks to spread the word as the problem is long known, but not dealt with by the various search engines (except Yahoo, at least).

The trick is easy: put a script on your website that redirects with a 302 to any other website you would like to hijack. When eg. GoogleBot encounters this redirect, it eventually store the URL to this script into the database and not the URL of the target. That means, if someone uses eg. Google to search the web and the page you hijacked matches the request, it would display an excerpt of the hijacked site, but with the link to your script.

If you know programmed your script to distinguish between GoogleBot and a normal user, you would be able to redirect this user to any of your sites and thus have hijacked the reputation of this website.

The original URL would be removed from the search engine’s database, but this happens on a not predictable way, as Claus describes. Sometimes the page with the higher page rank might win, but he also encountered situations where this is not the case. The search engine would replace the original URL, as it now has two different starting points (your script and the the original URL), but the same page URL (the target of your script’s redirect and the original URL itself). So it removes one of this duplicated entries.

It’s time for the search engines to change this behaviour and Claus asks us for help. I gladly did so.

Veröffentlicht unter Allgemein