フィルター

「新語ウォッチャー」といわれている「もり・ひろし」さんが、2008年前期の新語十選を紹介しています。この選出基準はあくまでも彼の個人的観点によるものとしていますが、今年前半にその言葉が話題になるきっかけがあったこと、その言葉が今後しばらく定着しそうであること、その言葉に対する社会的関心が大きかったことを考慮したそうです。
そのひとつに「フィルタリング」〜子どもと情報の関係を問う議論〜という言葉が選ばれています。
 最近は、子どもたちはほとんど携帯電話を持ち、パソコンでインターネットを利用しています。家庭へのインターネットの普及率は、いまや64%にもなっていて、生活に欠かせないものになっています。普及してくれば、当然その世界での犯罪は増えてきますし、子どもへの悪影響も出てきます。そんなときにネットにフィルターを掛け、ネット利用の際に有害情報サイトを閲覧できないようにする機能のことを「フィルタリング」といいます。この方法に白黒の2種類あります。許可サイトのみ閲覧できる方式を「ホワイトリスト方式」と言い、禁止サイト以外を閲覧できる方式を「ブラックリスト方式」と言います。
そこで、インターネットを利用することによるリスクから子どもたちを守るためには、子どもにとって不適切なサイトを“見せるか・見せないか”を大人(保護者や先生)が選択し、閲覧を制限することができる「Webフィルタリングソフト」が有効な手段の一つとされています。しかし、なにがよいサイトで、何が悪いサイトかというと判断がとても難しくなります。ですから、ただサイトの利用方法の実情に考えないで、形式的なカテゴリ分類により、一律にフィルタリングの対象とされてしまうことは、発信者の表現伝達の自由や受信者の知る自由、コミュニケーションの権利に対する過度な制約となってしまい、戦後、教科書の子どもに読ませたくない部分を墨で黒く塗りつぶしていたのと同じようなことになってしまいます。
そこで、今年の4月には有害サイト認定のための第三者機関「モバイルコンテンツ審査・監視機構」が設立されました。この団体は、ただ、フィルターを掛けて読ませたくないサイトを排除するだけでなく、青少年が、知識や情報を自ら選別し、人格形成や自己実現に資するものを取得する能力を身につけられるような啓発活動や、教育プログラムやレイティング等の施策も考え、設立計画書には、青少年の発達段階に応じた主体性を確保しつつ、違法・有害情報から保護し、モバイルコンテンツの健全な発展を促進する施策を総合的に実行するためと書かれています。
また、フィルタリングソフトも販売されています。これらは、ユーザがWebページにアクセスしようとした際に、Webページの内容をチェックし、有害と思われるページへのアクセスを防止するソフトウェアです。多くのソフトでは、膨大なWeb サイトに対応するために、アクセスさせたくないページをリスト(データベース)化し、リストに該当するサイトをブロックする「ブラックリスト方式」を採用しています。
携帯電話から一般サイトの閲覧が可能になり、ネット情報がボーダレス化してきた現在、犯罪もボーダレス化してきています。ただ新しいものを避けていては子どもを守ることはできません。