投稿

2012の投稿を表示しています

シングルソケット ローコスト Intelサーバー

イメージ
こんにちは。 Intelのローコスト、シングルソケットサーバの写真です。 固定式HDDベイが4つ、奥行きも短くシンプルなサーバです。 WEBサーバやLinuxルータ用にいかがでしょうか。 ( 製品紹介ページ )

iodrive2入荷しました

イメージ
FusionIOが製造しているpci expressタイプのフラッシュストレージiodrive2が入荷しました。 http://www.fusionio.com/platforms/iodrive2/ SSD等のフラッシュメモリを利用したデバイスの登場により、人気のWEBサイト、ゲームサイトなどでボトルネックになりがちだった、データベースサーバが革新的に高速になるようです。 512ByteのランダムIO性能(IOPS)は、Readが143k、Writeが535kだそうです。 バンド幅に換算すると、それぞれ71.5MB/sec、267.5MB/secと、驚異的な性能です。 弊社ではFusionIOのiodriveシリーズを搭載可能なサーバを扱っております。 今回は、下の写真のようなサーバに組み込んで出荷しました。

ブログ

構えて文章を書こうとするので、なかなか記事が書けない。下書きに未完の記事がいくつかたまっていて、旬を過ぎてしまったものもちらほら… そういう意味では、構えずに書けるマイクロブログ、Twitterの登場は革命的だったのだけど、人の言動が気になってしまうのと、ソーシャル的なやり取りが面倒くさい。 非ソーシャルなつぶやきとして、書いて行こうかな… この投稿もたいした結論が無いので、公開をためらっているナウ

KVM用のマシンの引越し

イメージ
先日立ち上げたKVM用のマシン ですが、同じ機種のwindows serverマシンが故障で起動不能になってしまったため、代替機として使用することになってしまいました。そこで、弊社で過去に販売していたIntel製の1Uサーバに引っ越すことにしました。 スペックは CPU: Intel QuadCore Xeon X3440, 2.53GHz, cache 8 MB  MEM: DDR2 800MHz ECC Unbuffered 2GB x2  HDD: Seagate ST3320613AS 320GB SATA  NIC: Intel 82574L / 82578DM と、メモリが若干少ないですが、なかなか素敵なサーバです。メモリは機会を見て増設することにします。 ちなみに、このサーバの後継機種は こちら になります。最新のIntel Xeon E3-12xx v2(Ivybridge)シリーズのプロセッサを搭載していて大変コストパフォーマンスに優れています。 引越し作業は次の様にしました。まず、HDDを載せ替えてブートしてみます。ネットワークが認識しなかったので、ホストカーネルをコンパイルし直しe1000eを有効にしました。 このマシンのKVM環境、前回のブログを書いてからそのまま放置していたので、まだ完成していません。 近いうちにちゃんと使えるようにしておきたいと思います。

Intel 10GBaseT NICのドライバ

linuxでは、Intel の10G NIC X540はixgbeでサポートされるようだ。 Device 8086:1528 http://pci-ids.ucw.cz/read/PC/8086/1528 2.6.38からサポートされている http://kernelnewbies.org/Linux_2_6_38-DriversArch drivers/net/ethernet/intel/ixgbe/ixgbe_x540.c バニラカーネルであれば使えそう。

10GBaseTとSFP+DACの比較

タイトルの件について調べ物をしたので、メモ。 レイテンシ 10GBaseTの規格ではエラー無くデータを転送するために、ブロックエンコーディングを行う。そのためには、ブロックサイズ分のデータを送信PHYに読み込み、エンコーディングを行ったのち、送信することが必要である。受信側では、その反対が必要である。規格によると、送受信PHYのペアで2.56μsの遅延を許容している。ブロックデータのサイズを考慮に入れると、リンクあたり2μs以下にすることは不可能である。 SFP+の場合には、ブロックエンコーディングが無く、より単純なエレクトロニクス構成であるため、遅延は典型値で300ns程度である。 それぞれの場合に、さらにメディア遅延を考慮する必用があるが、光であれ電気信号であれ、およそ5ns/m程度である。 最大ケーブル長 10GBaseTの場合、Cat6AまたはCat7ケーブルの利用により、100mまで通信可能である。 パッチパネルも使用可能である。 ダイレクトアタッチケーブルの場合、8.5mまでである。 25mまで大丈夫なケーブルも提案されている。 消費電力 10GBaseTは4W-6W/port(片側) SFP+DACは1.5W/port(片側) ソースは以下のホワイトペーパー http://www.missioncriticalmagazine.com/ext/resources/MC/Home/Files/PDFs/WP_Blade_Ethernet_Cabling.pdf HPCなどの分野では遅延が少ない方が良いので、SFP+DACの方がお勧めということらしい。 Webやゲームのデータセンター用途で、2.6µsの遅延が問題になるのか、気になるところ。 ちなみにアリスタの10Gスイッチの遅延は、以下のサイトによると10GBaseTで3-3.6µs、SFP+で0.8-1.15µsである。 http://www.aristanetworks.com/jp/products/7050series/7050t http://www.aristanetworks.com/jp/products/7050series/7050s

10GBaseTイーサネットに関して調べ物

10GbeのインターフェイスにはCX4、SFP+ファイバー、SFP+ダイレクトアタッチカッパー(DAC)、10GBaseTなどがある。 CX4 古い技術で、ケーブルの太さやコネクタの大きさなどから、高集積化には向かない。ケーブル長15mまで。 SFP+ファイバー 10GBase-SR 高価である 低消費電力、ケーブル長300mまで。 サーバにネットワークカードの増設が必用。 SFP+DAC 比較的安価である。ケーブル長は7mまで。 サーバにネットワークカードの増設が必用。 10GBaseT 安価である。 従来、消費電力が大きく、高コストであると思われていたが、最近のプロセステクノロジーによりそうでもなくなった。NICの消費電力が初期の25W/portから6W/portに低下した。 1000BaseTイーサネット環境とポート互換性がある。1ギガビットのNICを持つサーバを10GBaseTのスイッチに接続でき、10GBaseTのNICを持つサーバを1ギガのスイッチに接続することができる。 サーバにネットワークカードの増設が必用。10GBaseTポートが搭載されたマザーが出始めている。 レイテンシー2μs~4μs。HPCユーザや高頻度な金融取引の用途では、気になるかもしれない。 普通はCPUの割り込み負荷低減のために、Interrupt Moderationが使われ、その場合には~100μsのレイテンシーが意図的に追加されるので問題ない。 以上、Intelのホワイトペーパーより http://www.intel.com/content/www/us/en/network-adapters/10-gigabit-network-adapters/10-gigabit-ethernet-10gbase-t-paper.html 10GBaseTポート標準搭載のサーバの例 Supermicro 1027R-WRFT+ http://www.supermicro.com/products/system/1U/1027/SYS-1027R-WRFT_.cfm Supermicro 6017R-N3RFT+ http://www.supermicro.com/products/system/1

10ギガビットイーサネット

そろそろ、10ギガビットイーサネットの時代に入ってきました。 データセンター向けのハイエンドソリューションやHPC向けの高速ネットワーク用途では、10ギガビットのソリューションは数年前から利用されてきたようです。 しかし、数ある10ギガの規格のうちどれがが標準になるか見極めるのが難しく、機器も高価で、なかなか導入が広まらない状況にあったと思います。 最近になって、SFP+ Direct Attach ケーブルを利用したソリューションや、10GBaseTソリューションで、比較的安価な製品が出始めています。 今年は、一気に10ギガビットイーサネットのソリューションが普及するのではないでしょうか。 弊社では、10GBaseT デュアルポートをオンボード搭載したサーバ、Arista Networks社の10GBaseTスイッチなどを、販売していきたいと思います。

Intel SSD 520 240GB 購入しました

イメージ
先日発売されたIntel 520 SSDを購入しました。 インターフェースはSATA 6Gb/s、カタログスペックはシーケンシャルリード 550MB/s、シーケンシャルライト 520MB/s、4KB Random Read 50,000 IOPS、4KB Random Write 80,000 IOPSと大変高性能です。またMTBFは1,200,000時間でニアラインクラスのHDDと同等の信頼性です。 Intelのカッコいい箱はCPU等と同様のカラーリング。 同梱物の写真 SSD本体、3.5インチマウンター、CD、説明書、シール、 電源ケーブル、SATAケーブル、ネジが同梱されています。 3.5インチマウンタ。通常の電源ケーブルとSATAケーブルを利用する。 SSD本体 カッコいいシールはパソコンに貼るも善し。 Raidカードに8本ぶら下げたら、FusionIOなんかよりもお得かも知れないですね。

Kernel Virtual Machine(kvm)のセットアップ

イメージ
いくつもあるサーバを、仮想化によりまとめることができれば、サーバの保管場所や電気代の節約になる。私の会社ではいくつかのサーバを仮想マシン上で運用している。kvmによる仮想環境の再構築する機会があったので、備忘録的にノウハウというか、工夫した部分について、まとめておきたいと思う。 kvmはそれ用に構築したLinuxカーネルをハイパーバイザーとする仮想マシンである。GuestOSはWindowsやLinuxのみならず、様々なOSがサポートされている。 http://www.linux-kvm.org/page/Guest_Support_Status   今回はDebianLinux上で、バニラカーネルをkvmホスト用に自前でコンパイルしたものに入れ替え、ゲストOSとしてDebianLinuxを複数動かせるようにする。ゲストOSはWEBサーバなどのネットワークサーバ用途を想定しているので、GUI機能は必要ない。したがって、コンソールログインとSSHログインが可能になれば良しとすることにした。 最近のDebianLinuxでは、おそらく標準でGUIを使ってkvmを利用可能である。しかし、仕事で使うとなると中身や仕組みをできるだけ熟知していたくもあるので、余分な機能で被われたディストリビューション標準のツールをあえて使わないことにした。 ハードウェアは、ちょっと昔のDellT105が遊んでいたので、これを使うことにした。今となってはそれほど強力なマシンではないが、4コアのAMD Opteronを搭載しており、メモリスロットも4つある。これにDDR2 ECC 2GBを4本積んで、8GBのメモリを確保した。 1. ハードウェアスペック CPU: Quad-Core AMD Opteron 1352,  2.1GHz, cache 512 KB MEM: DDR2 800MHz ECC Unbuffered 4GB x8 HDD: Seagate ST3320613AS 320GB SATA NIC: Broadcom NetXtreme BCM5722 kvmで仮想マシンを作る場合、IntelのCPUであればIntel VT、AMDのCPUであればAMD-Vに対応している必要がある。CPUのそれらの仮想化支援機能が無ければただの低速エミュレーター

1U 4ノードサーバ SR1640TH

イメージ
Intelのクアッドノード、サーバベアボーン Xeon X3400系ですので、ちょっと古いですが… 1Uのシャーシに電源も独立したサーバユニットが二つ。 それぞれのサーバユニットにはソケットが二つ。デュアルCPUサーバ一台ではなく、独立したシングルCPUのサーバ二台が、一枚のマザーに載っているという構成。 サーバユニットは全面から引き出し可能。メンテナンスは2ノード毎に行うことになる。 ServerEnginesのBMC サーバユニットを、シャーシの上に乗せてみました。

1U Sandy Bridge Xeon ファイルサーバ

イメージ
先日、お客様に納品した1Uサーバのご紹介です。 1UシャーシにSandy Bridge Xeon E3-1270を一個搭載しています。 フロントには2.5インチのHDDベイが8個あり、SATA、SAS HDD、SSDなどを8本搭載可能です。 マザーボードはSupermicro X8SIU-F。このマザーボードは横方向に短いため、1Uシャーシ内への拡張カードの装着が容易になります。今回は、キャパシタ付のRAIDカードASR-5805Zを装着しましたが、いつもは置き場所に困るキャパシタが、余裕で取り付けられました。PCIスロットを二つ占有する、Teslaなどにも向いているのではないかと思います。 6本あるメモリスロットは、4Gbyte DDR3 ECC Reg.モジュールで、フル実装。合計24GByteのメモリを搭載しています。 ASR-5805Zは1.2GHzのデュアルコアRAIDチップを搭載しているため、比較的発熱が大きいです。十分にカードを冷却するために、FANを二つ増設しています。 今回は冗長化電源付のシャーシをご希望されました。