商標・知財コラム:一橋大学名誉教授 弁護士 土肥 一史 先生

ヤフーやグーグルが開発されなかったのは著作権法のせいなのか?

 著作権法に関してしばしば指摘されていることの1つに、検索エンジンは1994年日米ほぼ同時に開発に着手されたにもかかわらず、日本にはフェアユース規定がないために、著作物の権利者の許諾が必要となり、米国に先を越されてしまった、という指摘がある(たとえば、城所岩生「フェアユースは経済を救う」、2016年、インプレスR&D)。わが国の著作権法に検索エンジンに関する権利制限規定(同47条の6)が導入されたのは2009年であるから、そこだけみると確かに遅きに失したということになろう。

 この領域全くの素人であるが、検索エンジンにはディレクトリ型検索エンジンとロボット型検索エンジンがあるらしい。後者は人手を介さず、クローラー(ロボット)が一定の計算式の条件に従って情報収集を行っていくシステムと聞いている。このような形態の情報収集は1990年代末にはとっくに行われており、この当時著作権法の権利制限規定が障害として意識されてなかったように記憶する。

 問題が生じたのは2007年に経産省が始めた「情報大航海プロジェクト」との関係であろう。このプロジェクトは「必要なときに必要な情報を検索・解析できる情報基盤(プラットフォーム)の実現によって、将来の情報経済社会におけるイノベーション創出環境を確立し、わが国産業の国際競争力の向上などを目指す」というもので、巨額な国費を投入する以上、著作権法などの法的制度整備が求められた経緯がある。これが2009年改正に繋がったというのが正鵠を射ているように思われる。

 ではなぜ米国でグーグルやヤフーは成功したのか。検索結果をユーザーに提供するビジネスモデルではなく、検索ワードを事業者に「売りつける」ビジネスモデルという逆転の発想にその原因があろう(別所直哉「ビジネスパーソンのための法律を変える教科書」2017年、Discover21)。グーグルのアドワーズに代表される検索連動型広告では、事業者(広告主)に商品名や登録商標が検索ワードとして売られ、そのワードをクリック単価の高低と1月の限度額の多少などによって検索結果の順位が決まる。

 検索エンジンでは、あらゆる情報を巨大なサーバーシステムに記録することが不可欠であるが、この記録は複製という利用行為として著作権法とつながる。したがって複製という行為をどこで行えば、比較生産コストが最少で済むのかということこそが検索エンジン運営者にとって最大の関心事ではないか。運用コストの大半は電気代が占めるが、産業用電気料金の国際比較をみると、日本のそれは米国の2倍半にもなる(筒井美樹・澤部まどか「電気料金の国際比較」2014年4月28日、電力中央研究所社会経済研究所)。この差は大きい。

 現在、国会で審議中の「著作権法等の一部を改正する法律案」でも、検索エンジンに関する規定は大幅に見直されるとともに、CPS(Cyber Physical System)の展開に支障が無いよう世界最先端の著作権法の内容になっている。ビジネスモデルの成功には産業インフラの整備が不可欠であると同時に、キーワード広告のような先を見越したビジネスモデルの開発を事業者には期待したい。

一橋大学名誉教授 弁護士
土肥 一史

メルマガ登録
土肥 一史 先生
土肥 一史 先生
バックナンバー
ページTOPへ