Manchmal ist es grotesk: Ein Roboter hat mehr als tausend mal die Homepage downgeloadet. Schäden sind nicht entstanden, aber die unsinnige Verschwendung von Leistung ist ärgerlich. Gibt's keine Software gegen solcherlei Umtriebe? Vielleicht in der robots.txt? Da steht schon eine lange Liste von Disallows drin. B.E.