このドキュメントで説明するソフトウェアは、Extended SupportまたはSustaining Supportのいずれかにあります。 詳細は、https://www.oracle.com/us/support/library/enterprise-linux-support-policies-069172.pdfを参照してください。
Oracleでは、このドキュメントに記載されているソフトウェアをできるだけ早くアップグレードすることをお薦めします。

機械翻訳について

1.1.2 UEKリリース2について

ノート

UEKリリース2 (UEK R2)のカーネル・バージョンは、2.6.39となっていますが、実際には3.0の安定したLinuxカーネルに基づいています。 この番号変更によって、2.6以上のカーネル・バージョンを必要とする一部の低レベル・システム・ユーティリティを変更なしに実行できます。

UEK R2には、リリース1と比較して次の点が改善されています。

  • 割込みのスケーラビリティが改良され、特にJavaワークロードに関してスケジューラのチューニングが改善されています。

  • 超高性能メモリーによって、ハイパーバイザーでクリーンなメモリー・ページをキャッシュし、仮想マシンによるコストのかかるファイル・データのディスク読取りを排除することで、それらの容量および使用レベルを増大させ、広範囲のワークロードに対する仮想化ソリューションのパフォーマンスを向上します。 超高性能メモリーは、ディスクI/Oを削減するLZO圧縮ページ・キャッシュ(zcache)も実装しています。

  • 送信パケット・ステアリング(XPS)では、マルチキュー・ネットワーク・デバイスからの送信ネットワーク・パケットをCPU全体に分散します。 XPSは、各CPUのロック競合およびNUMAコストに基づいて送信パケット用の送信キューを選択し、そのキューを使用してパケットを送信するCPUを指定します。

    XPSがトラフィックを転送できるCPUのリストを構成するには、/sys/class/net/interface/queues/tx-N/xps_cpusを使用して、指定したネットワーク・インタフェースと送信キューに対してCPUビットマップを実装します。 デフォルト値は0 (ゼロ)であり、XPSは無効になります。 XPSを有効にして、特定のCPUセットによってインタフェース上の指定した送信キューを使用できるようにするには、ビットマップのそれらの位置の値を1に設定します。 たとえば、XPSを有効にしてeth0上のtx-0キューに対してCPU 4、5、6、7を使用するには、rps_cpusの値を次のようにf0 (16進数で16+32+64+128 = 240)に設定します。

    # cat f0 > /sys/class/net/eth0/queues/tx-0/xps_cpus

    単一の送信キューを含むネットワーク・デバイスでXPSを構成する利点はありません。

    マルチキュー・ネットワーク・デバイスを含むシステムでは、各CPUが1つの送信キューにマップされるようにXPSを構成します。 システムのCPUと送信キューの数が等しい場合、XPSで排他的な組合せを構成してキューの競合を回避できます。 システムのCPUがキューより多い場合、同じ送信キューに対して同じキャッシュを共有するCPUを構成します。

  • Linuxのbtrfsファイル・システムは、大規模ストレージ・サブシステムの拡大するスケーラビリティ要件を満たすように設計されています。 詳細は、第4章「Btrfsファイル・システム」を参照してください。

  • cgroupによって、CPU、I/Oおよびメモリー・リソースのファイングレイン制御が提供されます。 詳細は、第7章「コントロール・グループ」を参照してください。

  • Linuxコンテナによって、同じサーバー上に複数のユーザー領域バージョンのオペレーティング・システムが提供されます。各コンテナは、それぞれ独自のプロセスとネットワーク領域を保持する独立した環境です。 詳細は、第8章「Linuxコンテナ」を参照してください。

  • 透過的なヒュージ・ページでは、最新のCPUのメモリー管理機能を活用して、仮想メモリー・サブシステムのオーバーヘッドを削減し、メモリー集中型のワークロードに対してアクセス頻度の高い仮想アドレスのキャッシュを改善することで、カーネルが物理メモリーをより効率的に管理できるようにします。 詳細は、第9章「HugePages」を参照してください。

  • DTraceによって、システムを調査し、その動作状況の把握、ソフトウェアの多くのレイヤー全体にわたるパフォーマンス問題の検出、または異常な動作の原因の特定を行うことができます。 DTraceは、現在のところULNでのみ使用できます。 詳細は、第11章「DTrace」を参照してください。

  • オラクル社によってエンジニアリングされたconfigfs仮想ファイル・システムによって、ファイル・システムやデバイス・ドライバでこの機能を実装するカーネル・オブジェクトの設定を構成できます。configfsは、ioctl()システム・コールに対する設定の値を変更するための代替メカニズムを提供し、カーネル・オブジェクトを参照する手段としてsysfsの目的の機能を補完します。

    OCFS2のクラスタ・スタック(O2CB)では、configfsを使用してクラスタ・タイムアウトを設定し、クラスタ・ステータスを調査します。

    低レベルI/O (LIO)ドライバでは、マルチプロトコルSCSIターゲットとしてconfigfsを使用し、lio-utilsツール・セットを通じてFCoE、ファイバ・チャネル、iSCSIおよびインフィニバンドの構成をサポートします。

    configfsの実装の詳細は、http://www.kernel.org/doc/Documentation/filesystems/configfs/configfs.txtを参照してください。

  • dm-nfs機能では、データをローカル・ストレージではなくNFSファイルに格納する仮想ディスク・デバイス(LUN)を作成できます。 管理されたネットワーク・ストレージには、物理ホストに対してローカルであるディスク上に仮想デバイスを維持する場合に比べて多くの利点があります。

    dm-nfsカーネル・モジュールによって、ローカルにループバック・マウントが可能なブロック・デバイスとしてNFSファイル・システム上のファイルを扱うことのできるデバイス・マッパー・ターゲットが提供されます。

    次のサンプル・コードは、dmsetupを使用して、マウントされたNFSファイル・システム上でアクセスできるファイル$filenameのマップされたデバイス(/dev/mapper/$dm_nfsdev)を作成する方法を示しています。

    nblks=`stat -c '%s' $filename`
    echo -n "0 $nblks nfs $filename 0" | dmsetup create $dm_nfsdev

    サンプルの事例は、ロード・バランシング用のゲストVMの高速移行です(または、物理ホストがメンテナンスを必要とする場合)。 この機能は、iSCSI LUNを使用しても実現可能ですが、dm-nfsの利点は、ストレージ管理者が新しいLUNを初期化することなく、ローカル・ホスト・システム上の新しい仮想ドライブを管理できることです。

    dm-nfsでは、I/Oが効率的に一貫して実行されるように、非同期ダイレクトI/Oを使用します。 ゲストのディスク・データは、ホストにローカルにキャッシュされません。 ホストがクラッシュした場合、データが破損する可能性は低くなります。 ゲストが固定されている場合、データが完全に書き出されたことを確認するため、その仮想ディスクのクリーン・バックアップを取得できます。