投稿日:2015年06月03日 作成者:yasunaka
日本年金機構から125万件の年金情報が漏洩した問題が世間を騒がせています。IT Proには以下のような報道があります。
[続報]日本年金機構、ファイル共有サーバーを5年以上前から運用より
「同機構は漏洩データを保管していたファイル共有サーバーを社会保険庁時代から恒常的に利用していたことが明らかになった。」
「あるフォルダとその配下のサブフォルダとファイルが盗まれた」(システム統括部)。サーバーには「エクセル」や「アクセス」のファイルが格納されていた。」
「パスワー ドの設定を職員任せにしてチェックが行き届かない運用であったことと、ネットがつながるパソコンで個人情報のサーバーにもアクセスできるネットワーク設計 だったことが重なり、今回の流出を招いた。」
実際、業務上の必然性から、Excelに名前やメールアドレスなどを入れて管理する、なんてことは良くあることだと思います。今回のケースはウィルスに感染してクラックされ、それらのファイルを抜き取られたということのようです。で、Excelにパスワードを設定することになっていたのだけど、設定し忘れていたケースが結構あった、ということのよう。
まあ、人がやることなんで、忘れることもあるかも。そもそもいちいちパスワードを設定しなければならない運用なんて、面倒だし、パスワードを忘れると開けなくなってしまうなど、いろいろリスクがありますよね。
じゃあ、例えばシンクライアントにして、サーバーに接続して使えば良いかと言えば、そうでもない。確かにシンクライアントにすればローカルPCには残らないですが、ウィルス対策ソフトの強度はローカルPCでもサーバでもさほど変わらないので、同じようにサーバー上でクラックされれば同じように流出することになります。
いちいち業務毎に高セキュリティな専用システムを用意すれば良いのかもしれませんが、それはそれで高コストですよね。
じゃあ、どうすればいいのかと?
で、ふと気づいたのですが、この問題は実はcrossnoteで解決できそうだな、と。
crossnoteはPCにダウンロードするデータをすべてAES128bitで暗号化します。ファイルを開くときだけ一時的に元のファイルに復号化し、ファイルの保存を検知して自動的に暗号化して取り込み、crossnoteを終了する際に一時的に作成した元ファイルを消します。なので、例えPCがクラックされて流出したとしてもファイルは暗号化されているので大丈夫です。
暗号化・復号化は自動的に行うので、いちいちファイルごとにパスワードをかける必要はありません。パスワードをかけ忘れるリスクはありませんし、逆にパスワードを忘れて開けなくなるリスクもありません。
crossnoteのサーバーはWindowsのファイル共有とは仕組みが異なり、クラウドでも運用可能な専用のセキュリティ・システムで守られています。Windowsのサーバーより高セキュリティだと言うつもりはありませんが、仕組みが異なるのでクラックしづらいでしょう。
機能を絞り込んだLight editionを使えば、だれでも簡単に使いこなすことができますよ。
ご興味のある方、ご連絡はこちらまで。
投稿日:2013年11月27日 作成者:yasunaka
さあ皆さん、Windows XPマシン廃棄の準備は万全ですか? 🙂
みなさんもご存じのとおり、来年、2014年4月9日をもって、マイクロソフトはWindows XPのサポートを終了します。既にカウントダウンが始められており(今日時点で、残り133日)、この長年愛用されてきたOSから未練を断ち切り、できるだけ早く手を切るように促しています。
サポートを終了すると、ウィルスなどがOSの脆弱性を狙った攻撃をしてきた場合、対応が難しくなります。基本的にはサポート終了が、OSの死亡宣告と同じと考えるべきなのでしょう。
で、表題の話。
当社には、テスト目的などでまだ何台かXPのマシンが残っているのですが、最近これらのXPマシンのWindows Updateが終わらないという現象が起きています。Windows XPのマシン起動後、しばらくするとsvchost.exeがCPUを100%に振り切ったままになります。冷却ファンがバンバン回って、かつ何も仕事ができない状態がず~と続きます。ちょっとググればわかりますが、マイクロソフトもこの現象を認識していて、まだ対処できていないとか。7月ぐらいから、らしいですが。
これ、ウィルス並みにたちが悪いですよ。その間、ず~っとそのマシンでは、ほぼ何も仕事ができないんですから。しかもこのタイミングで、しかもこんなに長い間放置しているってのは、早くXPを止めるように仕組んだんじゃないかって、疑いたくなる状態です。
ま、何はともあれ、早くXPを止めましょう、ということですね。(しかしこういったことでライトユーザがPCからタブレットに流れる動きが加速するのでしょうね…)
投稿日:2012年07月02日 作成者:yasunaka
CNETでこんなニュースが。
— 引用 「うるう秒の挿入で複数のサイトに障害が発生」 —
グリニッジ標準時(GMT)7月1日午前0時、協定世界時にうるう秒が追加されたことで、複数の人気ウェブサイトやソフトウェアプラットフォームでサイトの混乱が発生したようだ。
…(途中省略)…
Redditは、Javaで構築されたオープンソースデータベース「Apache Cassandra」に問題が発生したのはうるう秒が原因、とTwitterで述べた。
…(途中省略)…
「Firefox」ウェブブラウザの開発を手がけるMozillaは、Javaで構築された別のオープンソースプラットフォーム「Hadoop」で遭遇している問題について、うるう秒が原因だと述べた。
— 引用ここまで —
なんでJavaでうるう秒で障害が発生するの?と思って調べてみたら、Javaそのものではなく、ベースのLinuxカーネルの不具合らしい。(参照「うるう秒のあとにMySQLなどのCPU使用率が高騰する件について」)
比較的新しいカーネルの場合で、ntpサーバを動作しているときに影響を受けるらしいです。要注意!
投稿日:2012年07月02日 作成者:yasunaka
ここ数日、ファーストサーバーのデータ消失による大規模障害や、Amazon EC2サービスが落雷で止まった件など、クラウドサービス関連の障害が相次ぎました。
クラウドの方が運用ノウハウが集約する分、個別に運用するよりも耐障害性が高まるように思えますが、このところの障害の様子を見ていると、必ずしもそうも言えないようです。ストレージ等が集約する分、複数のサービスが同時にダウンしてしまうリスクがあることがはっきりしてきた、といえるかもしれません。
このリスクを分散するにはどうすべきか、ですが、1つの解としては、インフラを別とする、まったく別の業者をバックアップ先として用いる、というのが有効でしょう。つまり複数のクラウドを同時に分散して用いる、という考え方です。
実際、私どものお客様の環境で、そのようにまったく別のクラウドサービスをバックアップとして利用するように設定した例があります。まったく別のインフラである故、ファーストサーバーのトラブルのようにバックアップまで同時に消失したり、Amazon EC2のトラブルのようにデータセンターそのものがダウンすることですべて動作しなくなってしまう、といったリスクを回避することが可能になります。
ハードウェアの冗長性確保、という観点で、大切なデータを守るためにも、複数クラウドの利用はいかがでしょうか? 🙂
投稿日:2010年09月25日 作成者:yasunaka
ちょっと思うところがあって、出先でも会社にある書類を見たい、などといったことを実現する方法について考察してみました。このようなニーズは結構多いと思いますし、実際に実現する方法はいくつか考えられます。
まず一番簡単な、かつ誰でもやっていそうな方法 「書類をコピーしてノートPCを持ち歩く」。この方法はある意味確実なのですが、例えば出先で変更した内容を社内側に反映し忘れて、書いたはずのことが消えてしまったり、会社側での変更を取り込み忘れたりなど、書類が一元管理されないことによる問題が起こります。
この問題を華麗に解決するのが、VPN+リモートデスクトップです。VPNで会社に接続し、リモートデスクトップで社内のPCにログインして使用すれば、書類は会社のサーバ上で編集するので一元管理されますし、ノートPCにドキュメントが残らない分、セキュリティ的にも優れているといえます。
このVPN+リモートデスクトップという方法は外から使いたい人が同じ会社の人だけの場合には、当面最強のソリューションのように思えます。しいて問題を言うならば、接続回線が遅いとリモートデスクトップでの操作が遅くなって辛い、という点でしょうか。
ただ、この方法がうまくいくのは前提条件「外から使いたい人が同じ会社の人だけの場合」が成り立つ場合です。社外から使いたいという人が別の会社の人(で、かつその仕事だけの関係のような人)のような場合には、そのような人をVPNを通じて社外のネットワークに接続できるようにしてしまうのは通常、セキュリティ的に問題が大きいといえるでしょう。
つまり会社を跨いだコラボレーション作業にはこの方法はとりにくく、この点がVPN+リモートデスクトップというソリューションの弱みでしょう。
この制約条件を取り払うのがクラウドによる書類の連携です。例えばGoogle Docsを使えば、クライアント側にダウンロードして使わない限り、書類が一元管理されます。弊社のcrossnoteを使えば、Excelファイルをダウンロードして使うような方法でもインターネット越しにセキュアに一元管理することが可能です。
「外から使いたい人が同じ会社の人だけ」という制約条件が成り立つ場合はVPN+リモートデスクトップ、「社外の人ともコラボレーション」という場合はクラウドを使ったソリューションを、という結論でした。
投稿日:2010年08月06日 作成者:yasunaka
ちょっと(というかかなり)びっくり。
Google、Waveの開発を中止
「期待したほどにはユーザーに受け入れられなかった」としているけど、逆にいうと期待が高すぎたということでしょうか? 私自身かなり注視していたプロダクトだけに、このニュースには唖然としてしまいました。
Waveって技術者からみたら夢のような技術に見えますが、一般ユーザからみれば、「別にSkypeでいいじゃん」ってことなのかもしれませんね。
私が本来想定していたのは、現在プレビューリリースしているものはWaveの一角であって、これをコアとした様々なバリエーション、使用法が出てくるのではないかと期待していたのですが、どうもそういう狙いではなかったのかもしれません。(または狙いが外れたということでしょうか?)
投稿日:2010年07月18日 作成者:yasunaka
最近、テレビをつけているとiPhoneアプリをネタにしている番組がちょくちょくあります。テレビから「?できるアプリをゲット :shock:」みたいな言葉が流れてくるのを聞くと、「アプリ」という言葉がそんなに市民権を得たのか?と感慨深いものがあります。
アプリとは、当然アプリケーション・ソフトの省略形なのですが、昔は「ソフト」って言っていたのに、なぜかiPhoneに関しては「アプリ」の方が通りが良いらしいです。ま、Appleが「アプリケーション」と言っているのを略して「アプリ」なので、ソフトと言わないのはその辺にあるのでしょう。
さて、今のiPhoneアプリを見ていて感じるのは、旧来のアプリケーション・ソフトと今の「アプリ」を比較した場合、主軸が機能からコンテンツに移っているということです。
つまり旧来のアプリケーション・ソフトでは、例えばワープロソフトのように文章を作るための機能が全てであって、中身の文章そのものは対象外でした。でも今の「アプリ」では、例えば文章を作るアプリの場合ならば「簡単に面白おかしい文章が作れます」みたいな、むしろその中身の文章そのものを売りにしているようなものが増えている気がします。
確かにアプリを求める人たちは、そのアプリを使って何かを一から作り上げるよりは、より手軽に、既に存在しているコンテンツをちょこちょこっとイジッてアレンジして楽しめる、という使い方の方が好むのかもしれません。
もともと発想の原点はWebで、Webだとコンテンツを提供するだけなので、そこでインタラクティブにいろいろと加工できる機能をつけたものが、今の「アプリ」の本質なのでしょう。
こうした今の「アプリ」では機能の違いはちょっとした付加価値的なものであって、コンテンツこそ命となります。コンテンツを機能とセットで売る、というのが今のアプリのビジネス・スタイルなのだ、といえるでしょう。
こうしたコンテンツをベースとしたアプリが大量に発生している現状を、私は「アプリのコモディティ化」と呼ぶことにしたいと思います。
さて、じゃあシステム屋は何を作って売るべきなのか? 旧来の機能だけを提供するようなシステム屋はどんどんニッチになってきています。コンテンツとセットになった総合的な仕組みを提供できないところは、今、急速に起こっているアプリのコモディティ化に耐えられなくなるかもしれません。
この考察は、いずれまた後日に。
投稿日:2010年03月11日 作成者:yasunaka
先日、ある人と話していたときに、面白いことを言われました。
「スキー滑れないスキーのコーチって聞いたことある? スキーではコーチってみんな滑れるって思っているけど、プログラムを書けないシステムコンサルっているよね。おかしいでしょ。」
確かに、スキーのコーチは普通それなりにスキーの上級者であることを期待しています。どうやればうまく曲がるのか、どうやればうまくスピードをコントロールできるのかは、スキーが上級の腕前があり、十分に身についているからこそ、他人に上手に教えられるものだ、と誰もが思います。
が、システムの世界ではなぜかこれが通用していない。実際のプログラミングやシステム構築の経験がないまま、「バーチャルな」システムコンサルをしているケースは結構多いように思います。
でも、よくよく考えてみると、やっぱりそれではうまく「コーチ」することは出来ないはずです。少なくとも、プログラムの基本的な仕組みとか、こんなことをやれば、どれだけの開発が必要で、開発ではどんなリスクがあって…のような基本的なことが肌の感覚で理解できていないと、頓珍漢で意味の無いやり取りが大量に行われ、プロジェクトが迷走することが多い気がします。
さらにそういった場合、その「頓珍漢さ」に本人たちが気づいていないから、たちが悪かったりしますが…
投稿日:2009年04月15日 作成者:yasunaka
@ITにRubyの作者であるまつもとさんの講演をまとめた「ソフトウェアは工業製品ではない」という記事が載っています。「コード(ソフトウェア)を書くというのは、組み立てのことではなく、製造業でいう「設計」に相当する」と述べています。以前、ひがやすをさんも同じようなことを言ってらっしゃいましたが、まさにその通りだと思います。
ソフトウェアを作るという行為は上から下まですべて設計であって、手順どおりに同じ製品を作り続ける生産工程ではないのです。
おそらく製造業との対比で言えば、工場に相当するのはデータセンターなのでしょう。
ただ、日本においては一般に、ソフトウェア開発というのは工場における製造と同じようなものと考えている向きが多いのではないでしょうか? コーディングなどの実際にプログラムを作る作業を「製造」と表現する場合がありますが、これなどはまさにその典型だと思います。
この考え方の根底にはウォーターフォール的な思考に基づいて、上流工程が設計のすべてであって、下流工程はただ単に機械的な作業をしているという考え方があるのではないでしょうか? しかしもしそのような機械的な作業ですむことであれば、ソフトウェアの世界ではとっくの昔に自動化されて、人間がやらなくても良い作業になっているはずです。
以前、何かの資料で読んだのですが、日本のソフトウェア開発は、コストは若干高めで生産性は低いそうです。なぜこんなことになっているのか考えてみたのですが、コード(ソフトウェア)を作るという作業を単なる「同じ製品を作り続ける生産工程」だと考え違いをしている間は、人材も育ちません。結果として、いつまで経っても生産性の向上は望めないのではないでしょうか?
投稿日:2009年01月23日 作成者:yasunaka
最近、あるシステムの事例で、SaaSという仕組みの良さを(逆説的に)実感できたことがありました。
残念ながらその事例について詳細を話すことはできないのですが、1つあらためて深く感じたことは、企業内ではシステムが長い期間使われ続けるということです。一旦稼動しだしてしまえば、長年使われ続けるというのも、当たり前のことなのですね。
この結果、例えば業務用のパッケージソフトが10年以上に渡って使われ続ける、なんてことも当たり前にあるわけです。
でも問題なのが、OSとハードウェアです。伝統を誇る(?)IBMのAS400(今はeServer iSeries)ならいざ知らず、例えばWindowsだってMacOSだってUnixだって、10年前のOSというのは大抵メンテナンス対象外になっています。
これはOSメーカからすれば仕方ないことですが、業務用パッケージを使っている側からすればそんなことは関係なく、使い続けたいわけです。でもそのためにいちいち自分達で手をかけて(すなわちコストを時間をかけて)、OSやパッケージソフトのバージョンアップ作業をこまめに続けていく企業なんて、そうそうないでしょう。
でもSaaSならば、サービス提供者側が黙っていても勝手にやってくれるのです。サービス提供者側はサービスを提供する上で障害となることは排除しなければなりません。ですので、サーバ側の基盤とするOSやハードウェアはサービス提供者側の責任で、バージョンアップしていくことになります。
SaaSのメリットというとオン・デマンド的な部分が強調されがちですが、長期間使い続けるという観点でも、基盤環境のバージョンアップをサービス提供側が継続的に実施するというのは大きなメリットなのだと感じました。