(少なくともこのブログでは)最近ホットな話題である「人工知能による画像認識機能」を拙作マンホールマップで使ってみました:


個別のマンホールページの右下部分に "Visual Recognition(Beta)" と書かれたリンクがあります。表示の通り、現時点ではベータ機能扱いです:
 2015031501


モバイル用ページの場合は一番下:
2015031502


ここをクリック/タップすると、「このマンホールに描かれた画像」を画像認識 API を使って調べた結果がトグル表示されます(もう一度クリック/タップすると消えます):
2015031503

上の画像の例だと "Nature_Scene"(自然の風景)68.56% とか、"Water_Scene"(水辺の風景) 61.96% とか・・・ マンホールというよりも、その周囲を読み取っているんでしょうかね。。


この画像認識 API は IBM Bluemix を通じて提供されている Watson Visual Recognition API を使って実装しています。画像認識のややこしい部分が全てブラックボックス化されていて、画像のバイナリデータをポストするだけで解析結果を JSON で返してくれる、というものです。なお、このAPI で使われている人工知能は「学習型」なので、同じ画像バイナリに対して必ずしも同じ結果を返すわけではありません。(精度が上がるかどうかはともかくとして)少しずつ学習しているようで、ある程度の時間をおいて実行すると少しずつ結果が異なるようです。


この API は非常にシンプルなので、私のように画像認識の難しい知識を持っていなくても簡単に使えます。サンプルというか実装例は以前のブログエントリで紹介しているので、興味のある方はこちらも参照ください:
Watson の画像認識 API を使う(2/2)