http://japan.cnet.com/news/biz/story/0,2000050156,20091420,00.htm
びっくり。
でもいろいろな意味で良い買い物かもなあ。
裏側を聞くのがちょっと楽しみ。
前に設定した、2byteコードが入ってないと受けつけないよ、
というスパム対策はそれなりに機能している。
ただ、日本語のトラックバックスパムも増えてきていて、
たまに頭にくるものもあったりする。
とりあえず言及リンクのない Trackback は受けつけなくても
良いかな、ということでその設定もしてみた。
使用しているトラックバックプログラムの元は、
miyagawaさんが日本語化 + メール送信対応したものを、
たつをさんが、くっつき化したもの。
参考)
技術文書:くっつきトラックバック
http://nais.to/~yto/doc/tech/kuttuki-trackback.html
これに、
- 2byte文字チェック(正確には8bitチェック)
- 言及リンクチェック
を追加してみました。
いちおう以下に置いときます。
http://www.pochi.cc/~sasaki/src/trackback
参考にした URL は以下。
トラックバック SPAM 対策 --> [2005-04-21-10]
言及リンクのない Trackback をはじくプラグイン Junk Filter 版
--> [2005-10-03-9]
具体的な追加コードは以下。
それほどコードを書かずに対応できちゃうのは Perl の良い所。
...
+ my $BlogUrl = 'http://**********';
...
...
my $mode = param('__mode');
unless ($mode) {
...
respond_exit("No URL (url)") unless $i->{url};
+ # anti spam 1
+ my $txt = $i->{excerpt};
+ if(($txt ne "") && ($txt !~ m/[\x80-\xff]/)){die('error')};
+ # anti spam 2
+ use LWP::UserAgent;
+ my $ua = LWP::UserAgent->new;
+ my $res = $ua->request(HTTP::Request->new(GET => $i->{url}));
+ my $ok = $res->is_success && do {
+ $res->content =~ m/\Q$BlogUrl\E/;
+ };
+ if(!$ok){die('error')};
+ #
my $data = load_data($tb_id);
くぐり抜けるトラックバックスパムが出てくるのは時間の
問題だろうけど、しばらくはこれで様子を見るつもり。
http://cl.pocari.org/2005-11-16-3.html
インストールしてみた。
Windows でしか使えないけど、たしかに超手軽。
ちょっと遊んでみるつもり。
http://nais.to/~yto/clog/2005-11-17-4.html
殺伐、というキーワードに反応して招待してもらった。
たしかに良い感じに殺伐としてる。
招待して欲しい人がいたら言ってね。チャリンチャリーン。
招待したユーザがポイントを得た場合にその何%かを
受けとる仕組みまである。
アムウェイなんかのネットワークビジネスそのものだ。
わはは、なんか愉快な気分になったよ。
参考)
連鎖販売取引(ネットワークビジネス) - Wikipedia
http://ja.wikipedia.org/wiki/%E9%80%A3%E9%8E%96%E8%B2%A9%E5%A3%B2%E5%8F%96%E5%BC%95
利用規約を読むと会員になるとメールが沢山送られてくるらしい。
事業者側としては、ターゲッティングメール等のメール広告で
商売する気なんだな、きっと。
うまいと言えばうまい。
参考)
主なメール広告サービス比較
http://jeff.ecjapan.jp/html/mail.html
http://mojix.org/2005/11/18/003309
携帯で NNTP newsgroup を読めるというのは暇潰しに良いな。
職場から支給されている i-mode の携帯は、mixi とイナモデ用に
大活躍しているけど、NetNews を読めれば暇潰しに良いなあ。
ちなみに 2ch も携帯から読める。
携帯でのアクセス@2ちゃんねる掲示板
http://www2.2ch.net/c.html
読んでないけどね。
http://www.studyinghttp.net/
via http://cl.pocari.org/2005-11-17-6.html
勉強するには良いサイトだな。
HTTP は昔は単純なプロトコルだったんだけど、
様々な拡張がされたため、今はかなり把握が難しくなっている。
176 ページあるっていうだけでゲンナリしちゃう。
RFC2616 - HTTP
http://rfc.net/rfc2616.htm
RFC はあきらかに肥大化していて、
新しいものほど、ゲンナリ度数が上がっている気がする。
たとえば FTP はかなり機能が多いプロトコルなんだけど、
69 ページしかない。
RFC765 - STD9 - FTP
http://rfc.net/std0009.html
これをリライトすると3倍以上になっちゃうんだろうなあ。
ちなみに UDP の RFC ページ数が少なくて有名。
なんと 3ページしかない。
RFC758 - UDP
http://rfc.net/rfc768.html
http://folk.uio.no/johnen/bontmia/
via http://cl.pocari.org/2005-11-17-4.html
良さげ。
ちなみに rsync + pdumpfs を愛用中。
だって楽なんだもん。
http://bloghome.lovepeers.org/daymemo2/?date=20051117#p01
sudo から実行されたコマンドはログに残るけど、
shell を起動されちゃうと何をやったかわからなくなっちゃう。
それを防ぐ方法。
お!、これ良いな、と思ったら穴があった。
ツッコミに穴が書いてある。
セキュリティ確保は難しいのう。
https://www.google.co.jp/webmasters/sitemaps/login
via http://www.itmedia.co.jp/news/articles/0511/17/news077.html
Google に巡回して欲しいウェブサイトを登録する、というサービス。
日本語対応していた。
設定はだいぶ前にしてたんだけど、その後ステータスチェックは
していなかったな。
今確認してみるとちゃんと全ページ巡回してるみたいだ。
サイト一覧は XML で書かずに手抜きをしてテキストリストを使用。
具体的には、chalow 生成スクリプトの最後に以下を追加。
#!/bin/sh
chalow 生成スクリプト
chalow -u -c cl.conf -o ~/public_html/ ChangeLogSOURCE
cd ~/public_html/chalow
for i in *.html ; do printf "http://www.pochi.cc/~sasaki/chalow/$i\n" ; done > sitemaplist
echo http://www.pochi.cc/~sasaki/chalow/cl.rdf >> sitemaplist
手抜きすぎるので、そのうち XML 化しようと思いつつ、、、、
すっかり忘れてた。
この日記にも設定してたことを書きそこねてたしねえ。
ちなみに具体的なサイト一覧は以下。
http://www.pochi.cc/~sasaki/chalow/sitemaplist
まとめて wget したい、という奇特で乱暴な人は
このリストをお使いくださいませ。
http://japan.cnet.com/news/media/story/0,2000047715,20091074,00.htm
やっぱり障害だったのね。
一昨日設定した Google Analytics は今は無事に
動いております。 --> [2005-11-15-4]
Awstats による apache のログ解析と比較して
Google Analytics が良い点は以下。
- レポートが高機能
- 検索キーワードの解析が高機能。文字化けもない。
- マーケティング的な活用ができる。
- 検索エンジンからのアクセスの数をより正確に捉えてるっぽい
- referrer を返さないブラウザからのアクセスについても
巡回経路解析が可能。
悪い点は以下。
- リンク元解析が弱い
- 画像ファイル等のトラッキングがしにくい
(FAQ を見ると、いちおうやり方は書いてあるけど)
- エラー解析ができない
- JavaScript がヘッダ部分に書かれていて、そこで Google に
アクセスに行くので、Google が落ちたときにまきぞえで、
ウェブが見れなくなる可能性がある。(ウソかも)
http://www.freenas.org/
まだまだ開発途中。
お金を出せるのであれば、同種の製品の YFS-CD とかを買う手もあるです。
http://itpro.nikkeibp.co.jp/article/COLUMN/20051115/224580/
ぜひ読者の方々にも,Fedora CoreとTUXでの運用を試していただきたい。
Fedora を運用で使うことを勧めるのは止めてよ。。。。
テスト内容は興味深いけど、結論として apache の 1.57倍なら、
lighttpd のほうが速い気がする。
lighttpd - apache 以外の選択肢 --> [2005-08-30-9]
というかそもそも TUX って 2.6 から外されたんじゃなかったっけ?
と思ってたら、同じようなことを思った人はやっぱりいたね。
http://nnri.dip.jp/~yf/momoka.cgi?op=readmsg&address=735
http://cl.pocari.org/2005-10-04-1.html
Sleipnir の検索ツールバーのデフォルトエンジンは、
Google の OEM 版。
これでもそこそこ使えるけど、OEM 版はあきらかに、
Google より検索対象が少ないのよね。
我慢できなくなってきたので、Google に変更。
http://taka.no32.tk/diary/20051116.html#p15
ちょうど設定しようと思ってたんだよね。
タイムリーでラッキー
proftpd.conf に以下を書く
<Limit LOGIN>
AllowUser ftpist
Order allow,deny
DenyAll
</Limit>
http://www.atmarkit.co.jp/news/200511/17/mpfj.html
感心したのでまとめてみた。
本当はマインドマップとか使えば今的かのう。
Cell の開発の歴史
- 取り組みの第一歩はPS2に採用されている
エモーショナルエンジン・コアをソニーと共同開発したこと
- その後、IBMを迎え入れ、3社による共同開発が始まる。
- 2001年に共同開発を発表した際にはほぼ要件が固まっていた
- 発表は2005年。
- 共同開発の初期段階では、米テキサス・オースティンにある
IBMのキャンパスで3社のエンジニアが入り乱れて開発を行った。
- 最盛期には300人の技術者が参加。
- 大所帯になったことなどから管理が難しくなり、
その後複数拠点に分散。
- パート分けを行わず、3社のエンジニアが入り混じって開発。
Cellの開発コンセプト
- 「レガシー技術に縛られない新しい発想のモノ」
- 「当初より大量出荷が見込まれるので、
デファクトスタンダードになるべく、高い性能を目指す」
Cellの開発スローガン
-「スーパーコンピュータを1Chipへ」
Cellが目指したもの
- 「マルチメディア系に特化したプロセッサ開発」
Cellへの要求仕様
- 「高いクロック」
- 「並列性」
- 「高いバンド幅」
- 「高いバンド幅」
- 「高電力効率性」
- 「セキュリティの確保」
Cellの技術的特徴
- バス速度 300 Gbyte/s
- PPE と 8個の SPE の組み合わせでユニットを構成
- ユニット数の増減による柔軟なスケーラビリティ
Cellをうまく使うコツ
- SPE をうまく使う
- アドレススペースの使い方のコツをつかむ
Cellの利用モデル
- HWの置き換えモデル
- スーパーコンピュータなどの「HPC並列モデル」
- グリッドコンピューティングなどの「ネットワーク透過モデル」
Cellの利用モデル例
- 4放送同時視聴と同時録画する
- 約4Mbpsのストリーム画像48個を同時再生
- カメラに写った人物の髪型や化粧をリアルタイムで
換えて表示する「デジタルかがみ」
http://www.machu.jp/diary/20050924.html
apache も mod_php も嫌い。
apache と mod_php を同時に捨てられる、というのは
とっても魅力的。
apache の嫌なところ。
- 設定が複雑
- なんでもできちゃうのはセキュリティ的に不安
- セキュリティホールが意外と良く見付かる
- プロセスサイズがでかいし、多数のプロセスが増殖するので
コントロールがちょっと難しい
mod_php が嫌いなところ。
- セキュリティホールが良く見付かる
- バージョンアップや機能追加等で mod_php を入れ直すときに、
make に失敗すると apache ごとコケる
- ただでさえ太り気味の apache のプロセスがさらにデブになる
- あるサービスでのみ必要なモジュールのために、
apache プロセス全部がデブになる。
PHP を CGI モードで動かす、という手はあるけど、
それだとスピードが犠牲になっちゃう。
FastCGI で動かすというのはナイス。
FastCGI のインターフェイスを持っていれば、
PHP 以外の RoR、Python、Perl、Zope なんかとも連携し易いしね。
http://taka.no32.tk/diary/20051114.html#p05
via http://taka.no32.tk/diary/
rundll32.exe keymgr.dll, KRShowKeyMgr
http://sourceforge.net/projects/pyios/
via http://taka.no32.tk/diary/
遊んでみようと思ったけどなぜか解凍に失敗する。
http://www.google.com/analytics/ja-JP/
via http://japan.cnet.com/news/media/story/0,2000047715,20090795,00.htm?ref=rss
Urchin が Google に買収されてたのを初めて知った。
Google Adwords を利用するユーザには無料で提供とか書いてあるので、
Adsense を利用しているページだけを解析するのかしら、
と思ったら、特に Adwords を利用してなくても無料で使えるっぽい。
しかもおそろしく高機能。
経営者向け、マーケティング担当者向け、ウェブマスター向けの視点で、
ダッシュボード形式でログ解析してくれる。
地図上のデータ表示もしてくれるし、すごすぎる。
使い方は、登録して、ページに以下のようなスクリプトを埋めこむだけ。
<script src="http://www.google-analytics.com/urchin.js" type="text/javascript">
</script>
<script type="text/javascript">
_uacct = "UA-*****-1";
urchinTracker();
</script>
早速この日記にも埋めこんでみた。
11月28日に日本国内のログ解析ツールが集まる、
アクセス解析カンファレンスというイベントがあるんだけど、
各社の反応が気になるところ。
アクセス解析カンファレンス
http://69day.jp/
このサイトには掲載されているログ解析ツールと比べると、
価格、機能的に、Google の圧勝だよね。無料だし。
過去の日記)
第1回アクセス解析カンファレンス --> [2004-06-09-1]
追記)
今はかなり重いみたい。
設定してから24時間以上たってようやくグラフが出た。
http://pcweb.mycom.co.jp/news/2005/11/14/021.html
JBoss は2年ぐらい前にいじったっきりなんだけど、
インストールや設定が Tomcat より全然楽だった。
単に JSP 使いたいだけでも JBoss のほうが良いじゃん、
と思った。
今はどうなんだろ。
それはそうと Wasabi という名前は BSD 企業として有名な
Wasabi Systems と商標等でぶつかるんじゃないかなあ。
Wasabi Systems
http://www.wasabisystems.com/
久しぶりに Wasabi Systems のサイトを覗いたところ、
コンテンツが充実していた。
経営に関する資料は見あたらなかったけど、
ストレージ、組込みの分野で頑張っているみたいだ。
BSD と Linux の比較がしっかり書かれている以下のコンテンツは、
Linux 馬鹿の人をいぢめる時には使えるかもね。
個人的には、いぢめると面倒なので、避けるようにするけど。
BSD vs. Linux
http://www.wasabisystems.com/gpl/comparing.htm
BSD 馬鹿の人をいぢめる時に使えるコンテンツどっかにないかなあ。