jump to navigation

[ブックマーク] 雑学ネタ 11月 14, 2009

Posted by hyhy in Other.
Tags:
comments closed

随時更新

後世に大きな影響を与えたレコード(CD)ジャケット23選

違う種類の動物同士が仲良くしてる画像貼ってみんなで和もうぜ

Asus EeePCが着エロ風キャンペーンを展開!?

データベースは目的別に使い分けるべし 11月 14, 2009

Posted by hyhy in 技術情報.
Tags:
comments closed

元マイクロソフトのSQL Server開発チームの一員であり、その後マイクロソフトのデータセンターのアーキテクトとして活躍。昨年アマゾンに移籍して、現在はAmazon Web Servicesの上級エンジニアであるJames Hamilton氏が、自身のブログの「One Size Does Not Fit All」というエントリで、リレーショナルデータベースだけにとどまらない幅広いデータベースの種類を4つに分類して紹介しています。

4つの種類とは「機能優先」「スケーラビリティ優先」「シンプル」「目的別」です。

Hamilton氏は、アマゾンがAmazonクラウドでMySQLのサービスを開始したところ、以前から提供していたキーバリュー型データストアの「SimpleDB」は終了するのではないかと心配する声があったことを挙げ、
リレーショナルデータベースがあれば十分な人が多いために、こうした声が出ることは理解している。しかし、構造化ストレージの世界はリレーショナルを超えてもっと幅広いものなのだ。
と、リレーショナルデータベース以外にもさまざまな目的に対応したデータベースの存在に目を向けるために、このエントリを書いたと説明しています。Hamilton氏が4つに分類したデータベースの世界を見てみることにしましょう。

■機能優先のデータベース
このセグメントでは、いわゆるリレーショナルデータベースがリストアップされています。

Oracle 、SQL Server、DB2、MySQL、PostgreSQL

さらに、クラウド対応としてAmazon Relational Database Serviceを挙げています。Hamilton氏のリストには含まれていませんが、マイクロソフトのSQL Azureを追加しておきましょう。

■スケーラビリティ優先のデータベース
データベースのスケーラビリティを実現する方法としてHamilton氏は「多数のRDBMSによるデータ共有」と「スケーラブルなキーバーリュー型データストア」の2つを挙げています。

前者として挙げているのが、DB2 Parallel EditionとOracle Real Application Clusters(Oracle RAC)。

後者としてはさまざまなデータストアがありますが、Hamilton氏が挙げているのが、Project Voldemort、Ringo、Scalaris、Kai、Dynomite、MemcacheDB、ThruDB、CouchDB、Cassandra、HBase、Hypertableなど。

また、クラウド上のキーバーリュー型データストアとしてAmazon SimpleDBも挙げています。ここではグーグルのBigtableも追加しておきましょう。

■シンプルなデータベース
Hamilton氏が「Simple Structured Storage」と書いているセグメント。リレーショナルデータベースほどの機能や複雑な操作は必要とせず、キーバリュー型データストアほどのスケーラビリティも不要。しかしファイルシステムほどおおざっぱでは困るし、検索やインデックス付けといった機能は求めたい、といった要求に合致するデータベース。

クライアント側で最も多くこの用途で利用されているのはBerkeley DB。そしてサーバ側ではいくつか例が挙がっていますが、FacebookのメールのインボックスとしてCassandra、Last.fmではProject-Voldemortを利用予定、アマゾンのショッピングカート用にはDynamoが使われているとのことです。

■目的特化型データベース
ここではわずかな例しか挙げられていませんが、イベント処理プラットフォームのStreamBase、データウェアハウス用のVertica、MapReduceをベースとしたAster Dataなど、さまざまな目的に特化したデータベースがこれからも登場するだろうとHamilton氏は書いています。

■データベース多様化の時代がくる
Hamilton氏が指摘するように、今後は何でもリレーショナルデータベースを使うのではなく、データの大きさ、処理の内容によって適切なデータベースを使い分ける時代が来ると僕も思います。

これは何と言っても、ビジネスで処理するデータがWebスケールになったため、データの量や増加速度、そしてデータそのものの中味が多様化してきたためです。「Hadoopの最新動向を「Hadoop World:NY 2009」の資料から(前編)」で紹介したように、成功するネットビジネスでは毎日数テラバイトのレベルでデータが増えており、それを保存するだけでなく、分析してビジネスに活かしていかなければなりません。MapReduceのように、それに適した新しいデータ処理方法が注目されるのは当然でしょう。

一方で、「カラムナデータベース(列指向データベース)とデータベースの圧縮機能について、マイケル・ストーンブレイカー氏が語っていること 」で紹介したカラムナデータベースや、「SSDに最適化したデータベース「RethinkDB」、ロックもログも使わずにトランザクション実現 」のように、あるいは「キャッシュの大きいRDB vs インメモリデータベース、性能がどれだけ違うのか調べてみると 」で紹介したようにリレーショナルデータベースそのものも新しい環境や技術をベースにして進化し続けています。

まるで今はデータベースの種類が爆発的に増えているカンブリア紀のようですね。

新しいデータベースの種類や技術が登場すると、次に期待されるのはそれらに対応した「SQL」のようにデータに対して汎用かつ分かりやすい操作体系の登場でしょう。それがSQLのような言語になるのか、RESTのようなAPIっぽくなるのか、あるいは別の形態をとるのか分かりませんが、そうなるには新しい分野のデータベース体系がもう少し整理されてからのように思うので、まだ数年単位で時間がかかることは間違いなさそうです。

参考サイト

アクセス解析とサイト改善の「WEB改善ソリューションフェア」レポート 11月 14, 2009

Posted by hyhy in 技術情報.
Tags:
comments closed

株式会社HARMONYは10月16日、「WEB改善ソリューションフェア」と題したセミナーイベントを開催した。石井氏が執筆した書籍『集客力を飛躍的に向上させるGoogle Analyticsアクセス解析の極意』の発売を記念したイベントだ。朝9時30分から始まり17時30分までのまる1日、Web担でもおなじみの石井研二氏(HARMONY副社長兼COO)が講師となって、「アクセス解析」「広告効果測定」「サイト改善」「成果アップ」を解説するセミナー+ワークショップが開催された。

このイベント、会場では次の5つのセッションが行われた。
* アクセス解析市場の最新動向
* サイト改善レポート実践活用術
* Google Analytics 活用術 実践編
* 広告効果測定市場の最新動向
* ECサイトのための広告効果の改善ワークショップ

■アクセス解析市場の最新動向 ~「ツールを覚える」時代が終わろうとしている
1セッション目はアクセス解析市場の最新動向を解説し、石井氏のノウハウを伝える内容。
石井氏によると、アクセス解析で問題だったことの1つは、自社のデータを見られるけれども、他社との比較ができないこと。社内でアクセス解析レポートを提出しても、経営陣に「これは多いのか少ないのか」と聞かれて返答できない状況だったという。石井氏が長らく提供してきているアクセス解析サービス「サイトグラム」では、「他社参考データ」という形で、比較対象となるデータを提供していたという。セッションではまず、サイトグラムで分析している年間12億PV全体のデータが紹介された。

・直帰率は47.5%、つまり半数の人は1ページしか見ずに帰っている
・入口ページは上位20~30ページで全体の8割を占める(入口ページが全部で1000ページあっても)
・トップページが入り口となる率は20数パーセントに過ぎない
・トップページが入り口となった場合の直帰率は高くはないので、トップページを除いて計算すれば、直帰率は47.5%よりもさらに悪くなると思われる

つまり、現状では多くのサイトで「トップページがサイトの入口」と考えていたら、訪問者の7~8割が、待ちかまえている場所以外のページからサイトに入ってきて(検索エンジン経由など)、かなりの率が直帰していると考えられる。
だから、まずは20~30ページくらいの主要入口ページを調べて、そこで訪問者をもてなせばいいのだという。

参考サイト

ネットワークセキュリティ よくある設計ミス10選 11月 14, 2009

Posted by hyhy in 技術情報.
Tags:
comments closed

しっかりした計画と設計がセキュリティ侵害の可能性を小さくする。この記事では、注意すべきセキュリティデザインの間違いをいくつか説明する。

ネットワークセキュリティの確保は、疑いなくIT部門の最も重要な機能の1つだ。ところが、ネットワークセキュリティの設計上、簡単に実践出来ることを見逃している組織をよく見かける。この記事では、ネットワークの安全性を脅かし、企業資産を危険にさらすよくある誤りについて紹介する。

1:設定したら忘れる
私が最初に説明したいのは、設計上の問題と言うよりは、計画の問題だ。この問題には、私が「設定したら忘れる」と呼んでいるメンタリティが関係している。これは、組織がネットワークのセキュリティを向上させることには力を入れておきながら、立ち止まってセキュリティプランを再評価することはしていない場合に起こる。セキュリティに対する脅威は常に変化しており、それに合わせてセキュリティアーキテクチャも変化する必要がある。これを実現するためには、セキュリティ上のニーズを定期的に再評価するのが一番だ。

2:ファイアウォールに必要以上のポートを開ける
われわれは、ファイアウォールに多くのポートを開けることは悪いことだと知っているが、どうしても必要な場合もある。Microsoft Office Communication Server 2007 R2を例に取ってみよう。外部からのアクセスを許そうとする場合には、1ダースほどのポートを開ける必要がある。これに加え、OCS 2007 R2では、さまざまなポートを動的に割り当てる。では、セキュリティ管理者はどうすべきなのだろうか。

 最善の問題解決方法は、リバースプロキシ(たとえばMicrosoftのForeFront Threat Management Gatewayなど)を利用することだ。リバースプロキシはインターネットとさまざまなポートを開ける必要のあるサーバとの間に置かれる。ポートを開けることは避けて通れないものの、リバースプロキシはリクエストを横取りしてフィルタリングし、その後それらのリクエストを意図されていたサーバに渡すという動作をする。これによって、サーバを外界から隠し、悪意を持ったリクエストがサーバに到達しないようにすることができる。

3:1台のサーバを兼用する
経済が壊滅状態にある現在、既存のサーバ資源を最大限に利用することに対する圧力が高まっている。このため、複数のアプリケーションや、アプリケーションの複数の役割を、1台のサーバにホストさせたいと思うこともあるだろう。この慣習は必ずしも悪いものではないが、コード行数が増えれば、脆弱性が存在する可能性も増すという法則がある。

 アプリケーションごとにサーバを1台用意するのは現実的でない場合もあるが、少なくともどのアプリケーション、どのアプリケーションの役割を1台にまとめるかについては、よく検討する必要がある。たとえば、Exchange 2007を使う組織には、少なくとも3つの役割のサーバ(ハブトランスポートサーバ、クライアントアクセスサーバ、メールボックスサーバ)が必要となる。これら3つの役割を1台のサーバでホストすることも可能だが、Outlook Web Accessを外部のユーザーに対して提供しようとしている場合には、役割の統合は避けるべきだ。クライアントアクセスサーバは、Outlook Web Accessの提供にIISを利用している。このため、クライアントアクセスサーバの役割と、ハブトランスポートサーバおよびメールボックスサーバの役割を同じサーバ上においてしまうと、メールボックスデータベースをインターネットに晒してしまうことになる。

4:ネットワークワークステーションを無視する
1年ほど前、ラジオ番組のインタビューで、ネットワークセキュリティの最大の脅威は何だと思うかと誰かが聞いてきた。私の答えは、ワークステーションが最大の脅威だというものであり、今でもその考えは変わっていない。ネットワークサーバについては安全性の確保に大変な手間をかけるのに、ワークステーションについてはほとんど無視している組織をよく見かける。適切にロックされていない限り、ユーザー(あるいは悪意のあるウェブサイト)は、ワークステーションに承認されていないソフトウェアを密かにインストールできる。

5:必要なところでSSLの暗号化を使っていない
誰もが、ユーザーがユーザー名とパスワード、あるいはクレジットカード番号などの秘密の情報を入力する場面では、必ずSSLの暗号化を必要とするということを知っている。しかし、自社のウェブポータルを安全にすることについては、多くの組織が誤った判断をしている。私がもっともよく見かけるセキュリティホールは、安全なページに安全でないコンテンツを掲載することだ。この場合、ユーザーは安全性を要するコンテンツにも、不要なコンテンツにも、表示をしたいかどうかを尋ねられることになる。これによって、ユーザーは安全性を必要としないコンテンツに対しても、表示する許可を与える癖をつけてしまう。

 それよりは目立たないが、より一般的な問題として、組織がウェブサイト内の重要なページに暗号化を施していないことが多いということが挙げられる。私の意見では、セキュリティ情報やセキュリティ上のアドバイス、連絡先情報を含むページはすべて、SSLで暗号化されるべきだ。これは、これらのページが特に秘密の情報を扱っているからというわけではない。ただ単に、暗号化のプロセスで使われている証明書によって、アクセスしているページが正規のものであり、フィッシング詐欺の一部として誰かが作成したページではないということをユーザーに対して保証できるからだ。

6:自己署名証明書を使っている
一部の組織がSSLによる暗号化の重要性を完全に無視しているため、Microsoftは同社の製品の一部に自己署名証明書を同梱し始めた。こうしておけば、その組織が自前の証明書を取得していない場合でも、SSLによる暗号化を使用したウェブインターフェースを使うことができる。

 自己署名証明書は、ないよりはましだとは言え、信頼されている証明機関から発行された有効なSSL証明書の代わりにはならない。自己署名証明書はもともと、管理者がある製品の安全性を適切に確保するまでの間、そのセキュリティを向上させるために用意されたものだ。確かに、自己署名証明書でSSLによる暗号化を提供することはできる。しかし、ユーザーはブラウザから、その証明書は信頼できないとして警告を受ける(そして、そうあるべきだ)。さらに、一部のSSLを使ったウェブサービス(たとえばActiveSync)は、信頼の問題から、自己署名証明書を用いて利用することはできなくなっている。

7:過剰なセキュリティログ
ネットワーク上で起こったイベントに関してログをとることは重要だが、やりすぎてログを過剰に取らないことも大切だ。ログが多すぎると、本当に見るべきセキュリティイベントを見つけることが難しくなってしまいかねない。すべてのログをとろうとするよりも、本当に意味のあるイベントだけに焦点をあわせた方がよい。

8:仮想サーバを無作為にグループ化する
仮想サーバはホストサーバ上に性能に基づいてグループ化されるのが一般的だ。たとえば、要求の高い仮想サーバは、いくつかの要求の低い仮想サーバと組み合わせられるかもしれない。性能の観点から言えばこれはいいアイデアだが、このアプローチはセキュリティの観点からは最高のアイデアとは言いがたい場合もある。

 私は、インターネットに接続される仮想サーバには。専用の仮想ホストを用意することを勧める。もし、インターネットユーザーにサービスを提供する3つの仮想サーバがあれば、それらのサーバを1つの仮想化ホスト上にグループ化するようにし、社内インフラ用のサーバ(ドメインコントローラなど)はそのホストには乗せないようにする。

 その理由は、VM escapeに対抗するということだ。VM escape攻撃とは、ハッカーが仮想マシンから抜け出してホストの制御を握ることを意味する。私の知る限りでは、実際にこのVM escapeを行う方法を見つけた者はいないはずだが、いずれその日が来ることは確実だ。そうなったとき、もしインターネットに接している仮想マシンのホストが、同様に強化されているウェブを提供するサーバとしか共有されていなければ、攻撃に対処出来る可能性はずっと高まる。

9:DMZにメンバサーバを配置する
可能であれば、DMZにメンバサーバを配置しないようにすべきだ。メンバサーバが侵害を受けると、Active Directoryに保存されている情報が漏洩してしまう。

10:アップデートのインストールをユーザーに頼る
最後に挙げるよくあるセキュリティ上の問題は、セキュリティパッチの適用をユーザーに任せるということだ。私は最近、いくつかのネットワークで、ネットワーク上のワークステーションにパッチを適用するのにWSUSを使用している例を見た。残念ながら、これらの例では、ユーザーにオプションをクリックさせ、最新のアップデートをインストールさせていた。問題は、ユーザーがアップデート作業にはコンピュータの再起動が必要になることを知っていることだ。一部のユーザーは、アップデートをいつまでも先延ばしにしてしまうかもしれない。エンドユーザーに依存するのではなく、パッチ管理ソリューションを利用して、セキュリティパッチを自動的に適用するようにし、この問題についてはユーザーに選択肢を与えないようにすべきだ。

原文

[ブックマーク] 便利ツールやらサービス 11月 14, 2009

Posted by hyhy in 技術情報.
Tags:
comments closed

随時更新

動画のサムネイル画像を作成する「Skreenics」
iPhoneでPDFを作る「iPhonePDF」
デジタル描画ツール「airpenDraw」
マインドマップフリーソフトを6つまとめて比較
PCに入れておきたいフリーソフト+α
色々と使えそうなグラフや図が描けるビジュアリゼーションライブラリ集
米lifehacker読者が感謝の意を表したいフリーソフト61選(2009年版)

[ブックマーク] Firefox アドオン 11月 14, 2009

Posted by hyhy in 技術情報.
Tags:
comments closed

随時更新

WEB開発者のためのFirefoxアドオン20選「Top 20 Essential Firefox Add-ons for Web Designers」

Mozilla、拡張機能の次世代実行エンジン“Jetpack”のギャラリーサイトを開設

Firefoxは誰でも機能を拡張できるようになる

『SpeedyFox』の強力バキュームでFirefoxを更にスピードアップ!

入れておきたいFirefoxアドオン – ジャンル別リスト「地図編」

[ブックマーク] 気になるビジネスモデル 11月 14, 2009

Posted by hyhy in Other.
Tags:
comments closed

随時更新。
このタイミングでたどり着いた人、スイマセン。。。

アートを投資に見立てて1ドルから参加する「Trust Art」

「キンドル」vs.紙の書籍 ―日本の出版社で出来なかった事業モデル

検索エンジンについて 11月 14, 2009

Posted by hyhy in 技術情報.
Tags:
comments closed

検索エンジンと聞くと,みなさんは何を思い浮かべるでしょうか?
GoogleやYahoo!などの検索ページを思い浮かべる方がほとんどだと思います。近年は,それら企業の努力によって検索エンジンというものが非常に身近になり,私たちの生活に欠かせないものとなりつつあります。
しかし,検索エンジンと一言で言っても,上記のような一般の方々へのUI(ユーザインターフェース)を指す場合もあれば,そのUIの裏側(バックエンド)にあるシステムを指す場合もあります。
Google,Yahoo!などを代表とする検索エンジンの裏側のしくみに着目し,検索エンジンというシステムのアーキテクチャやその内部で使われているデータ構造やアルゴリズムを,近年の手法や研究事例などを交えて解説していきます。

■検索エンジンとは
検索エンジンには,さまざまな種類があります。GoogleのWeb検索のようなものは,一般的に全文検索エンジンと呼ばれます。その他にも,画像検索エンジン,動画検索エンジンなど,多くの検索エンジンが存在します。本連載で紹介するのも,もちろん全文検索エンジンについてです。
では,この「全文」とはどういう意味でしょうか?
答えは単純で,全文とは「全」部の「文」という意味になります。つまり,検索を行いたい対象はテキスト文書の全部の文であるという場合は全文検索と呼びます。そして,そのような全文検索を実現するシステムが全文検索エンジン/全文検索システムと呼ばれます(英語では,full-text search engine/full-text search systemと呼ばれます)。全部の文を検索するといっても,普段Google,Yahoo!などを使って指定したキーワードを含むWeb上のあらゆるページを検索している私たちにとっては,あたりまえのことだと感じるのではないでしょうか。
また,補足になりますが,画像/動画検索エンジンでは,画像・動画の特徴量を使って検索を行うといった処理が行われているようです。しかし,画像検索・動画検索と呼ぶ場合でも,画像や動画の周辺のテキスト情報や画像のメタ情報を使って検索している場合はテキスト情報を検索していることになるので,正確には全文検索エンジンとなります。
ここで、「検索エンジン」と書いた場合は全文検索エンジンを指します。

■さまざまな全文検索エンジン
近年,検索エンジンはいろいろな場面で使われています。
もっとも身近なWeb検索をはじめ,メール検索やデスクトップ検索,そして特許検索やブログ検索などのドメイン特化型検索などが挙げられます(図1)。

TH400_001
○図1 検索の用途と規模

これらはすべて検索エンジンとしての基本となる仕組みは同じですが,規模やユースケースの違いから異なるアーキテクチャやデータ構造をとることがあります。
たとえば,メール検索やデスクトップ検索では,保存・検索したい文書量はそれほど多くありませんが,新しいメールや文書が追加されたら,それらをすぐに検索できるようしたいと思います。一方,Web検索では,大量の文書を保存しなければなりませんが,Web上にHTMLページが1つ追加されても,それが検索できるまでには多少の時間がかかっても許容できると思います。
このように,一言に全文検索エンジンと言っても,さまざまな形態や種類があります。ここでは,中規模から大規模の検索エンジンに主に焦点を当てて,解説します。

■全文検索とは
そのような全文検索エンジン(以降,検索エンジン)の根幹となる全文検索とは,どのような仕組みで実現されているのでしょうか? 全文検索には大きく分けて2つの手法が存在します。
* grep型
* 索引型(インデックス型)

■grep型
grep型検索は,逐次検索とも呼ばれます。UNIXの文字列検索コマンドである「grep」が名前の由来となっています。
grepコマンドと同様,検索したい文字列を文書の先頭から探していきます。よって,あらかじめ検索したい文書に対して前処理を行う必要などはありませんが,文書が増えると,それに従い検索時間も増加してしまうという問題点もあります。つまりgrep型検索は,小さい文書,一時的な文書などに向いた検索手法であると言えます。また,次に説明する索引型手法と一緒に使われる場合もあり,現在でも広く使われている手法となります。

補足ですが,文書に対して文字列を操作するにも,KMP法やBM法といった効率的な手法がいくつか存在し,一般的にはこれらの手法が使われます。これらについては本連載ではこれ以上扱いませんが,興味がある方はアルゴリズムの教科書などを参照ください。

■索引型(インデックス型)
grep型とは対照的に,あらかじめ検索しやすいように文書から索引(インデックス)を作ることにより,検索速度を向上させる手法となります。索引の構築に時間が掛かりますが,文書が増えても検索速度の低下を防ぐことが可能となり,中規模から大規模の文書に向いた検索手法と言えます。
一般的に検索エンジンといえば索引型の手法を採用したもののこと指し,転置索引(転置インデックス)や接尾辞配列(サフィックスアレイ)などの索引が広く使われています。本連載では,GoogleやYahoo!などでも使われている転置索引を対象に解説していきます。

参考サイト
検索エンジンを形作るもの

ブラウズした履歴の完全削除 11月 14, 2009

Posted by hyhy in 技術情報.
comments closed

ブラウザのプライベートモードを使えば、ブラウズ履歴が完全にプライベートになっていると思いますか? 実は言うとそうではないんです!
どちらかと言うと、なんらかのブラウズの痕跡を残していることの方が多いくらいなのです。なので、今日は、何も痕跡を残さずにブラウズする完全なるプライベートブラウジング方法について解説します。
 
■問題
ネット上で何を見たのか、という履歴は、ブラウザの履歴やその他のプライベートデータを消去しただけでは完全には消えません。キャッシュされたDNS lookupsやFlash cookiesなどはOSに保存され続けているのです。最初に明確にしておくと、全ての記録を常に完全に削除し続ける、というのは不可能です。なので、職場で見るべきでないサイトなどを見ている場合、PC上の履歴を削除しても、システム管理者などによって見つけられてしまう可能性はあります。自分のPCの場合、下記の方法でブラウジングに関するプライバシーをかなり強化することが出来ますので興味のある方はぜひ一読してみてください(下記にはそのプロセスを自動化するためのスクリプトも含まれています)。

■キャッシュされたDNSエントリー
ウェブページを開くには、PCがそのウェブサイトのIPアドレスをデフォルトDNSサーバからリクエストする必要があります。そして、そのウェブサイトへ再度アクセスする場合のプロセスをスピードアップするため、パソコン上にその情報をキャッシュします。これはプライベートブラウジング設定にしていても同じです。
コマンドプロンプトを開いて、「ipconfig /displaydns」と入力すると、キャッシュされたDNSエントリーのフルリストを見ることが出来るます。プライベートブラウジングセッションを新規で開き、通常行かないサイトへアクセスしてみるとこの様子を確認することが可能です。もう一度コマンドを走らせると、前述の手順で見た、「通常行かないサイトの情報」がDNSキャッシュに追加されているのが分かるので、どこそこのサイトにアクセスした、というのがアクセス権限のある人であれば誰でも見られる状態になっている、ということになります。キャッシュの削除は「ipconfig /flushdns」と入力すれば簡単に出来ます。

■Flash Cookies
秘密のトラッキング情報はDNSエントリーのみではありません。DNSエントリーのみでは、「いったい何を見ていたのか」、という正確な情報までは見ることが出来ないのですが、Flash cookiesの場合はまた別のお話。
これらのエントリーは「%appdata%\Macromedia\Flash Player\#SharedObjects」ディレクトリで表示させることが可能。これを見てしばしあわてふためき、その後心が落ち着いたなら、削除しておいて下さい。とりあえず、今の所はこれで全て削除可能です。

■FirefoxのFlash Cookiesをクリア
FirefoxにはこれらのFlash cookiesを簡単に削除出来る「Objection extension」というアドオンがあります。最新版のFirefoxで使うにはこのアドオンの「development release」をダウンロードし、about:configハックを実行する必要があります。それが終わり、アドオンがインストールされ、Firefoxを再起動したなら、Flash cookies対策の準備は半分完了です。このアドオンのSettingsタブに、「ブラウザを起動/終了する際にLocal Shared Objectsを自動的に削除する」というオプションがあり、ファイル詳細タブから今保存されているローカルクッキーを表示させることが出来ます。またFlashプレーヤー設定タブにも複数のオプション(情報を全く保存しない、など)が用意されているので、ここから好きな設定を選択します。

■ブラウジング後に『CCleaner』を使用
各アプリケーションによって格納される不要な情報を、綺麗に削除するためには『CCleaner』を使うのが一番効果的です。このツールの場合、どのブラウザを使った、というのは関係なくなるのも便利な理由の一つ。Flash cookiesを削除するには『CCleaner』のリストからAdobe Flash Playerのアプリケーションタブを探し、そこにチェックを入れて置きます。
『CCleaner』の設定が終わったら、CCleanerをすぐにバックグラウンドで実行するためのショートカットを作成しておけば、アイコンをダブルクリック、またはホットキーをアサインして、不要なデータの削除が簡単に行えるように設定できます。Windows 7/Vistaの場合、ショートカットをクリックする度にUACプロンプトが表示されるかと思いますが、それを表示させないショートカットの作成も可能です。またはUACを無効にする、というのも手かと思います。つい忘れてしまう、というのが心配な方はスケジュール設定で定期的に『CCleaner』を走らせると良いかと思います。

■データ除去用のバッチファイルを作成
ブラウジングキャッシュ、Flash cookieキャッシュ、DNSエントリーが確実に削除されることを徹底するために、最も効果的なのはブラウジングセッションが終わるたびに実行される単純なバッチファイルを作成することです。AutoHotkeyスクリプトを作成する、というオサレなやり方も選択肢にはありますが、通常の場合バッチファイルを作成しておけば十分かと思います。新規テキストファイルを作成し、「.batファイル(例:browserclean.bat、など)」として保存。そのファイルへ下記を貼付けます。スクリプト内の/AUTOと書かれている部分が『CCleaner』をバックグラウンドで起動する、というコマンドです。

"C:\Program Files\CCleaner\CCleaner.exe" /AUTO
ipconfig /flushdns

ファイルを作成し、保存したら、デスクトップ上、またはクイック起動バー、スタートメニューなどにこのファイルのショートカットを作成しておきます。
全てを自動的に削除するAutoHotkeyスクリプトを作成

パソコンスキルがもっとハイレベルな方であれば、ブラウザをプライベートブラウジングモードで起動し、最後のウィンドウが終了した後に『CCleaner』を実行し、DNSキャッシュを削除する、というスクリプトを作成します。AutoHotkeyスクリプトを新規作成し、下記のスクリプトを貼付け、スクリプト内のパスをインストールされている場所へのパスに置き換えます。


Run, C:\path\to\chrome.exe -incognito
WinWait, - Google Chrome
WinWaitClose ; Wait for Google Chrome to close
Run, C:\path\to\ccleaner.exe /AUTO
Run, cmd /c "ipconfig /flushdns"
MsgBox, Browsing Session is Cleaned.

スクリプトの一行目はGoogle Chromeをincognito modeで起動するスクリプトです。Firefoxを代わりに設定することも可能ですが、まずPrivate Browsing Command Line Flagアドオンをインストールし、-privateの引数を使用する必要があります。WinWaitの行でブラウザセッションが終了するまで待機しておくことを AutoHotkeyに指示します(これもGoogle Chrome/Mozilla Firefoxなどに変更可能)。

全てのセッションが終了した後にスクリプトは『CCleaner』を走らせます。

参考サイト

広告業界の将来 11月 14, 2009

Posted by hyhy in Other.
Tags:
comments closed

広告代理業の価値が低減していく。そういやユニクロ内部の人も不要だって言っていたのを思い出した。「広告枠に取り合いになるほど需要があって、そこを抑えているので高く売れるし、マージンも確保できる。」というメディアレップ型ビジネスモデルは、まだまだやっていけるとは思うが、総販売力に比例して枠を押さえる能力が担保されるので、総販売力を維持するオペレーションコストがかかる。当然価格競争に晒される商品も多くなり、高い利益率はそうそう望めない。有力な広告枠だけ扱えるという状況はあり得ないから、広告需要そのものが減退したり、広告枠が限定されなくなるととたんに利益率の悪い商売になる。

メディア扱いをさせてくれるのは、ディスカウントするか、キャンペーンプランニング、クリエイティブなどのトータルサービスを提供するかどちらかで、単にメディア扱いだけをフルマージンでくれる粋狂な広告主は今どきほとんどいない。
 純粋にプランニングやオペレーション部分だけでもしっかりしたフィーを払ってくれるクライアントが多くなればいいが、日本の広告主の多くは、メディア扱いと抱き合わせで、広告会社のプランニングやオペレーションサービスを引き出した方が安く上がると考えているようだ。フィーをもらうには絶対価値としてのスキルが要る。

そして今はマス広告が激減している。おそらく底を打つのは再来年。その後もマスの回復は容易ではない。

 さあ、この状況下で日本の広告業はどう発展(あるいは衰退)するだろうか。まず最初の視点は、現状の業態で、収益性(粗利率)を維持ないし上げることができるか、そして現在の機能を維持したままオペレーションコストを下げることができるかの2点である。

 粗利率でいうと、現状のソリューションサービス提供領域で、圧倒的に競争優位なサービスを確立することは容易ではない。メディアに関しても、全メディアが広告枠を絞って供給量を減らさない限り(OPECみたいに)、価格の維持やセルスルー率は上がらない。
広告会社が第三者のメディアやソリューションを右から左に販売するだけでは、やはり高い利益率は確保できない。従ってまずはオペレーションコストを下げることで、利益構造を再構築するしかない。損益分岐点を下げるしかないのだ。

 広告業は、現業のコストを抑えて利益を出しつつ、周辺事業開発に能力の高い人材を投入して、新たな収益源を獲得するしか生き残る道(正確には成長する道)はない。成長戦略をとる前に、現業だけでも利益の出る体質にすることから始めなければならない。その上で、戦略的な投資を展開できるかになる。まず、数%(の営業利益率)でもいいので営業利益が出ないと資金調達ができない。一定以上の投資余力を担保するには、こうした環境でも利益の出る状態をまずつくることだ。

 その上で、成長戦略を描くためには、総合商社がやってきたモデルが参考になる。商社ももともとあった手数料収入はどんどん薄利になっていった。そこで商社は、取引相手に資本を注入して、利益を取り込む戦略に出た。そして連結で利益を計上する。
 ここがもうひとつの課題。広告会社がグループ経営という立体的な発想ができるかである。単体の利益だけを考えていると、絶対に行き詰る。なぜなら、マーケティング環境の変化でワンストップでのサービス提供が困難になり、グループでの最適化を図るしかないからだ。総合商社は一見単体がでかいが、中身は様々な事業カンパニーの集まりだ。商社はありとあらうる領域を商売の対象として、「本体側のパーヘッドで商売になるかならないか」で事業選択するので、同じ給与体系でも成立する。実際のオペレーションは給与水準の低い子会社がやるからだ。
広告会社の方は、単体でのワンストップサービスが難しい以上、機能や顧客層別に再編成したグループ対応を求められる。(もちろん既にこうしたグループ経営がかなりできている大手もある。)それぞれに専門性をもった営業力が必要だからだ。いくらスタッフに専門家を持ってきても、顧客とインターフェイスするフロントラインに知見がないのでは、仕事にならない。仕事を獲得できないからスタッフも育たない。総合力という規模の論理は通用しにくくなっている。

 またある意味、広告業はいったん平均賃金を下げてでもしっかり働いてくれる社員をどれだけもっているかの勝負になる。その上で余分な人員は極力減らす。給与体系も大幅に見直して、クリエイティブなどは人件費を原価計上して、計上できた分だけ払う。営業も給与体系を選択できるようにして、ミニマムギャランティ+出来高も取り入れる。こんな荒療治が通用するかだが、こうしたことをやり切れる会社は生き残るだろう。なぜなら広告業くらい人員のパフォーマンスの差が大きい業態もないからだ。一部の仕事のできる人が多くの仕事ができない(ないししない)人を養っている構造がひどいのが広告会社だ。仕事と作業の区別がつかない営業(派遣社員の方がちゃんと仕事をしている場合もある)。バックヤードにいて評論家のようなことばかり言っているスタッフ。いずれもこうした正社員の数をどれだけ減らせるか。その代わりしっかり仕事をして成果を上げている人たちにちゃんと報いられるか。そのためにも評価基準の複雑な、レイヤーや職種の多い大会社を機能分社して、全員の営業利益貢献を数値化できるようにした方がいい。

 それから、デジタルも対応できる人員に極力入れ替える。欧米では、会社の看板はそのままにして大量にリストラして、新しい人員に入れ替えている。日本では文化的にそこまでできそうもないが、グループとして再編成を試み、デジタルスキル人材をどれだけ囲い込めるかが重要だ。
 デジタルリテラシーもデジタルスキルも、今ない人には、今更そう簡単に身につく訳ではない。とはいえ、デジタルスキルがないからといって仕事にならないかというと、そんなことは全くない。要はどんな仕事で稼いでもらうかだ。広告会社の資産は、人材と顧客だ。今どき取引口座はそうやすやすと獲得できるものではない。広告主企業も簡単に取引口座を増えそうとは考えていない。持っている顧客と持っている人材の適正配置(マッチング)こそ広告会社の経営判断であって、それ以外にはないと言ってもいい。
 
 従来の広告代理業というビジネスモデルにおいては、同じ皮袋(ビジネスモデル)の中身をアナログからデジタルに入れ替えただけでは基本儲かる商売にはならない。ただデジタル領域には、新たな儲け口がたくさんあって、いわゆる広告周辺領域には広告代理業以外の事業性もある。だからこそ、そこへの挑戦をするべきだ。
本来広告ビジネスをつくった人たちは、実に「ビジネスモデルドライブ」な会社をつくってきたはずで、広告マンがビジネス開発においても潰しの利くところを見せなければならない。広告業の将来は、若い広告マンのこういう意識にかかっている。能力は高いのだから・・・。

参考サイト