クレカ情報を含む個人情報流出したグローバルデータ robots.txtがなぜか160はてブされる

access_time create folderデジタル・IT

元の記事:https://getnews.jp/archives/348924

昨日、クレジットカード情報を含む個人情報が不正アクセスにより流出したと発表したグローバルデータ(エクスコムグローバル株式会社)。筆者も海外に旅行する際はグローバルデータのモデムをレンタルしていくことにしている。残念ながら筆者の個人アドレスに次のようなメールが1通来ていた。

「不正アクセスによるお客様情報流出に関するお知らせとお詫び」

以上のメールから察するに残念ながら筆者の個人情報(クレカ情報含む)も流出してしまったようだ。問題点は多々あるものの、指摘されている点の内の1つにrobots.txtの書き方に問題があったようだ。robot.txtとはGoogleやgooなどのロボット型検索エンジンに対する命令を記述しておくもの。検索に反映させてたくない(もしくは許可したい)場合に記述する。

グローバルデータのサイトに書かれていたrobots.txtにはアクセスタイプ、アクセスを拒否するか許可するか、ディレクトリ・ファイル、これら以外に余計な記述が書かれたままだったようだ。その中には「/CHANGELOG.txt」などあまり見られて欲しくない物まで記述されていた。

そんなグローバルデータのrobots.txtが現在『はてなブックマーク』の新着エントリーとした話題になっている。既に160人以上がはてブをしているという状態。ウェブサイトじゃなくテキストデータなのに……。技術者が好んで使うことが多い『はてな』だがこういう話題だと真っ先に飛びつきそうである。

robots.txt(はてなブックマーク)

※この記事は、ゴールドラッシュの「ソル」が執筆しました。[リンク]

  1. HOME
  2. デジタル・IT
  3. クレカ情報を含む個人情報流出したグローバルデータ robots.txtがなぜか160はてブされる
access_time create folderデジタル・IT

ソル

  ネタのタレコミや情報提供は下記ウェブサイトからお願いします

ウェブサイト: http://getnews.jp/

  • ガジェット通信編集部への情報提供はこちら
  • 記事内の筆者見解は明示のない限りガジェット通信を代表するものではありません。