ロボット(スパイダーと呼ばれることもあります)は、あなたのサイトをインデックス化/ランク付けしたり、インターネットに存在するWebサイトの統計を取ったり、あなたのサイトがまだ存在するかどうかを確認したりするためにスキャンを行う、多くの検索エンジンで利用されている自動巡回プログラムのことです。
Awstatsは最大1240のロボットを認識することができます。
Proxyサーバーもしくはゲートウェイとして動作するHTTPサーバーが、目的のサーバーがクライアントの要求に対して正常に応答できなかった場合に返されるエラーコード。