happyou.infoのブログ

ニュース収集サイトhappyou.infoのブログです。 国内外のあらゆる企業と組織、団体のウェブサイトの更新を収集します。 岡本将吾が運営しています。twitterは @happyou_info_ja です。

全上場企業と全地方自治体のRSSを出力することに成功しました

happyou.infoは、国内のすべての上場企業3649社とすべての地方自治体1981サイトのウェブサイトからRSSフィードを作成し、happyou.info内にて無料公開します(*1)。

happyou.infoのトップページ

 

Final Scraper

Final Scraper はHTMLページのパターン解析を行い高品質のRSSフィードを作成します。
同様のサービスは他にも存在しますが、Final Scraperは独自のパターン認識プログラムによって、作成されるRSSフィードの品質を飛躍的に高めています。

Happyou Final Scraper


FinalScraperを利用して、上場企業と地方自治体のサイトからフィードを作成して公開しました。

すべての上場企業

すべての地方自治体


happyou API

FinalScraperは自動で動作し人間による操作が不要であるため、クローラに組み込んで利用することが出来ます。
これにより、大量のウェブサイトから自動的に更新情報を検出することが可能になりました。
しかし機械的に抽出した更新情報は量も多くニュースと呼ぶに値しない情報も多いため(*2)、全ての更新を直接でRSSリーダを使って読むには適しません。

そこで個々の更新情報にタグをつけ、Web API経由の検索を行うことで必要な項目だけを読みだせるようにしました。 happyou APIで検索することも可能ですし、IFTTTやzapierといった外部のサービスを利用することでフィルタリングされた更新情報をモバイル端末にプッシュ通知させることも可能です。

happyou API ver2

 

今後

お客様がご希望されるどのような分野にも対応できます。 医療、介護、公共事業入札、自動車部品業界、建築資材業界、どの業種でも約150万サイトの中から更新情報を分類してお届けすることが出来ます。

お客様のサイト内に表示させることも、モバイルアプリに組み込む形でご利用いただくことも可能です。
クロール対象サイトをお客様の側でご指定いただくことも可能です。
お気軽にご相談ください。

https://happyou.info/ja/top/#customize

 

以上となります。最後までお読みいただきありがとうございました。

(*1)数字は2015/09/14現在

(*2)例えば、上場企業のインベスター・リレーションズが興味の対象の人にとって、B2C企業の「今なら花柄のお皿プレゼント」といった情報はノイズになります。

普及して欲しくないアンチスクレイピングサービス

スクレイピングとは、ウェブページから情報を取り出す処理を指します。そのためのプログラムやツールが存在します。

 

さて、ここで立場を変えて、情報を取り出されてしまうウェブサイト側の立場になって考えてみますと、スクレイピングはあまりうれしくない存在であることがわかります。

  • ニュースサイトは、コストと時間をかけて書いた記事をコピーされ転載されてしまう。
  • オンラインショップは、ライバルの他社に商品リスト、価格、在庫の変化、顧客の評価等を把握されてしまう。
  • インターネット広告は、自社が出している/仲介している広告の種類と量をライバルに把握されてしまう。

他社の情報は把握したいが、自社の情報は把握されたくないと考えるのは自然なことのようです。その証拠として、スクレイピングの普及に合わせて、自分のサイトがスクレイピングされることを防ぐための「アンチスクレイピングサービス」なるものが世に広まりつつある点を挙げることが出来ます。


https://www.cloudflare.com/apps/scrapeshield


http://www.distilnetworks.com (はてなの埋め込みリンクが働かない)


http://www.scrapesentry.com

http://www.fireblade.com (はてなの埋め込みリンクが働かない)

 

以上のサイトを見つけています。 実際にこれらのサービスを利用したわけではないので正確なことはわからないのですが、サイトを読む限り、主にアクセス履歴を分析してクローラbotを検出して排除しているようです。

 

以上が私が認識しているところのアンチスクレイピングの現状です。以下に私の考えを書きます。

 

でも思うんですよ。アクセスパターンでbotを排除なんて、どうにでも突破できますよ。いくらでも人間のフリはできます。

最近見つけました。ご参考までに。

 

そんなことより、頻繁にサイトの構造やページのデザインを変更するほうが、効果的にスクレイピングをブロックできるのではないかと思います。

 世のスクレイピングツールやコードは、XPathかそれに類する形でデータの抽出方法を定義しているものがほとんどかと思われます。この場合、ページの構造やデザインが少し変更されるだけで正しくデータを抽出できなくなり、その都度コードやツールの設定を変更する必要が生まれます。

私は今happyou.infoというサイトを作っており、多くのサイトをクロールし自動スクレイピングを行っています。もっとも煩雑で微妙な処理は、サイトの構造やページのデザインが変更されたことを認識してスクレイピングをやり直す箇所です。

たとえばウェブサーバがページを表示する際に、予めテンプレートを数種類用意しておき、それを交互に出力するだけでも既存のスクレイピングツールのほとんどは対応できないように思います。普段は<DIV>なのに時々<TABLE>に変わっていたり、5分後にアクセスしたら<IFRAME>の中に価格データが埋め込まれてるだけで我々は簡単に死んでしまうはずです。スクレイピングする側はまた別の対応策を考えねばならず、それは頭の体操にはなるかもしれませんが、あまり生産的ではないように思います。

もし作るならば、アクセスパターンからbotを排除するよりも、ページのデザインが頻繁に変更されるタイプのアンチスクレイピングサービスのほうが効果的のように思いました。そして、できればそのようなサービスは普及しないで欲しいです。

 

「私のスクレイピングはページデザインの変更に対応できる」という方がいらっしゃるかもしれませんが、そこで抽出できるデータって相当荒いデータだと思うんですよ。 もしデザインの変更に対応できるスクレイピングの方法をご存じの方がいたら是非ご教示ください。

 

最後に、やはりデータを囲い込む方向の技術は発展して欲しくないなと思いました(私はスクレイピングする側なのでそう考えてしまうのかもしれませんが)。 結局あまりうまくいかないだろうことは音楽や動画のコピープロテクトをみればわかりますよね。

 

この記事は、クローラー/スクレイピング Advent Calendar 2014  に登録させていただきました。 参加させていただきありがとうございました。

happyou.info - はじまりのことば

ザイソフト 岡本将吾と申します。 happyou.infoというウェブサイトを開発しています。

 

happyou.infoは、現在、 官公庁と上場企業のウェブサイト合計約7000件のサイトを巡回し、更新されたニュースを収集しています。RSSフィードを生成していないサイトに関しても、独自のパターン認識プログラムを用いてフィードを生成し収集してい ます。 そして得られたニュースにタグを付け分類しWeb APIとして提供します。

 また、この収集の過程で、約150万件のウェブサイトを収集しました。何らかの法人または団体と思われるサイトはそのうち約120万件です(*1) 。

 あらゆる組織や団体のウェブサイトの更新情報をニュースとして取り出し、適切なお客様に提供することを happyou.infoのミッションとします。

 

(*1) 数値はすべて2014年10月現在