Java NIOの高性能SUN / ONCRPCサーバー

dCacheの記事では、NFSサーバーとして使用する方法について説明しています。 しかし、既存の顧客との相互運用性は、システムを使用するのに十分ではありません。 パフォーマンスも上にあるべきです。 NFSプロトコルの主力は、ONCRPCプロトコルです。 dCacheでは、grizzly nio frameworkに基づく独自の実装を使用します。



若者のための少しの歴史


ONC RPC(オープンネットワークコンピューティングリモートプロシージャコール)は、80年代後半にSun Microsystemsによって作成さ 、1995年にNFSv2で公開されたプロトコルです。 ONCRPCは急速に配布され、2000年の初めにCORBA、SOAP、およびその後のRESTやJSON-RPCなどのファッショナブルな代替品に取って代わられるまで広く使用されていました。 ただし、ONCRPCは依然として使用されています。ネットワークファイルシステムでは、シンプルさおよび速度がファッションよりも重要です。



実装



別の自転車を発明しないために、最初はRemote Teaの実装を使用しましたが、すぐに簡単に解決できない制限(IPv6、GSSAPI、NIO)に遭遇しました。 そのため、自転車を発明する必要がありましたが、ゼロからではありませんでした。 RemoteTeaとの互換性を最大限に保ち、すでに記述されているコードを適合させました。







グリズリーニオ


基本的に、グラスフィッシュで使用されるグリズリーニオを取りました。 すべての最新のNIOフレームワークと同様に、グリズリーはイベント処理と一連のコマンドテンプレートに基づいています。 つまり、特定のイベントで呼び出される一連のフィルターについて説明します。



package org.glassfish.grizzly.filterchain; import java.io.IOException; public interface Filter { public void onAdded(FilterChain fc); public void onRemoved(FilterChain fc); public void onFilterChainChanged(FilterChain fc); public NextAction handleRead(FilterChainContext fcc) throws IOException; public NextAction handleWrite(FilterChainContext fcc) throws IOException; public NextAction handleConnect(FilterChainContext fcc) throws IOException; public NextAction handleAccept(FilterChainContext fcc) throws IOException; public NextAction handleEvent(FilterChainContext fcc, FilterChainEvent fce) throws IOException; public NextAction handleClose(FilterChainContext fcc) throws IOException; public void exceptionOccurred(FilterChainContext fcc, Throwable thrwbl); }
      
      







handleXXXXメソッドはNextActionを返します。これはStopActionまたはContinueActionです。 フィルタがStopActionを返す場合、チェーン処理は停止します。 主に、ネットワーク接続の読み取りおよび書き込み時に呼び出されるhandleReadおよびhandleWriteに関心があります。



  @Override public NextAction handleRead(FilterChainContext ctx) throws IOException { Buffer messageBuffer = ctx.getMessage(); if (!isMessageArrived(messageBuffer)) { //     //    return ctx.getStopAction(messageBuffer); } //    ctx.setMessage(getMessage(messageBuffer)); return ctx.getInvokeAction(); }
      
      







バトルコード
 import java.io.IOException; import java.nio.ByteOrder; import org.glassfish.grizzly.Buffer; import org.glassfish.grizzly.filterchain.BaseFilter; import org.glassfish.grizzly.filterchain.FilterChainContext; import org.glassfish.grizzly.filterchain.NextAction; import org.glassfish.grizzly.memory.BuffersBuffer; public class RpcMessageParserTCP extends BaseFilter { /** * RPC fragment record marker mask */ private final static int RPC_LAST_FRAG = 0x80000000; /** * RPC fragment size mask */ private final static int RPC_SIZE_MASK = 0x7fffffff; @Override public NextAction handleRead(FilterChainContext ctx) throws IOException { Buffer messageBuffer = ctx.getMessage(); if (messageBuffer == null) { return ctx.getStopAction(); } if (!isAllFragmentsArrived(messageBuffer)) { return ctx.getStopAction(messageBuffer); } ctx.setMessage(assembleXdr(messageBuffer)); final Buffer reminder = messageBuffer.hasRemaining() ? messageBuffer.split(messageBuffer.position()) : null; return ctx.getInvokeAction(reminder); } @Override public NextAction handleWrite(FilterChainContext ctx) throws IOException { Buffer b = ctx.getMessage(); int len = b.remaining() | RPC_LAST_FRAG; Buffer marker = GrizzlyMemoryManager.allocate(4); marker.order(ByteOrder.BIG_ENDIAN); marker.putInt(len); marker.flip(); marker.allowBufferDispose(true); b.allowBufferDispose(true); Buffer composite = GrizzlyMemoryManager.createComposite(marker, b); composite.allowBufferDispose(true); ctx.setMessage(composite); return ctx.getInvokeAction(); } private boolean isAllFragmentsArrived(Buffer messageBuffer) throws IOException { final Buffer buffer = messageBuffer.duplicate(); buffer.order(ByteOrder.BIG_ENDIAN); while (buffer.remaining() >= 4) { int messageMarker = buffer.getInt(); int size = getMessageSize(messageMarker); /* * fragmen size bigger than we have received */ if (size > buffer.remaining()) { return false; } /* * complete fragment received */ if (isLastFragment(messageMarker)) { return true; } /* * seek to the end of the current fragment */ buffer.position(buffer.position() + size); } return false; } private static int getMessageSize(int marker) { return marker & RPC_SIZE_MASK; } private static boolean isLastFragment(int marker) { return (marker & RPC_LAST_FRAG) != 0; } private Xdr assembleXdr(Buffer messageBuffer) { Buffer currentFragment; BuffersBuffer multipleFragments = null; boolean messageComplete; do { int messageMarker = messageBuffer.getInt(); int size = getMessageSize(messageMarker); messageComplete = isLastFragment(messageMarker); int pos = messageBuffer.position(); currentFragment = messageBuffer.slice(pos, pos + size); currentFragment.limit(size); messageBuffer.position(pos + size); if (!messageComplete & multipleFragments == null) { /* * we use composite buffer only if required * as they not for free. */ multipleFragments = GrizzlyMemoryManager.create(); } if (multipleFragments != null) { multipleFragments.append(currentFragment); } } while (!messageComplete); return new Xdr(multipleFragments == null ? currentFragment : multipleFragments); } }
      
      







データの不足によりチェーンを停止した場合、handleReadの次の呼び出しには複合バッファー(複数のバッファーで構成される)が含まれます。



プリミティブサーバーは次のようになります

  public static void main(String[] args) throws IOException { FilterChainBuilder filterChainBuilder = FilterChainBuilder.stateless(); filterChainBuilder.add(new TransportFilter()); filterChainBuilder.add(new /*   */); filterChainBuilder.add(new /*   */); final TCPNIOTransport transport = TCPNIOTransportBuilder.newInstance().build(); transport.setProcessor(filterChainBuilder.build()); transport.bind(HOST, PORT); transport.start(); System.in.read(); }
      
      





プロジェクトページでは、多くの例を見つけることができます。 デフォルトでは、grizzlyはマシン上のプロセッサと同じ数のスレッドを作成します。 このアプローチは実際に実証されています。 24コアのマシンでは、NFSサーバーは約1000のクライアントに簡単に対応できます。



プロジェクト自体は積極的に開発中であり、開発チームはエラーメッセージと送信されたパッチと推奨事項の両方に迅速に対応します。



oncrpc4j


すべてのONCRPCコードは、使いやすい独立したライブラリとして設計されています。 2つの典型的な統合オプションがサポートされています-アプリケーションに組み込まれたサービスまたはSpring Beanとして初期化されたサービス。



組み込みアプリケーション


 import org.dcache.xdr.RpcDispatchable; import org.dcache.xdr.RpcCall; import org.dcache.xdr.XdrVoid; import org.dcache.xdr.OncRpcException; public class Svcd { private static final int DEFAULT_PORT = 1717; private static final int PROG_NUMBER = 111017; private static final int PROG_VERS = 1; public static void main(String[] args) throws Exception { RpcDispatchable dummy = new RpcDispatchable() { @Override public void dispatchOncRpcCall(RpcCall call) throws OncRpcException, IOException { call.reply(XdrVoid.XDR_VOID); } }; OncRpcSvc service = new OncRpcSvcBuilder() .withTCP() .withAutoPublish() .withPort(DEFAULT_PORT) .withSameThreadIoStrategy() .build(); service.register(new OncRpcProgram(PROG_NUMBER, PROG_VERS), dummy); service.start(); } }
      
      







春の統合


私はXMLを恐れていません
 <?xml version="1.0" encoding="UTF-8"?> <beans xmlns="http://www.springframework.org/schema/beans" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans-2.5.xsd"> <bean id="my-rpc-svc" class="me.mypackage.Svcd"> <description>My RPC service</description> </bean> <bean id="my-rpc" class="org.dcache.xdr.OncRpcProgram"> <description>My RPC program number</description> <constructor-arg index="0" value="1110001" /> <constructor-arg index="1" value="1" /> </bean> <bean id="rpcsvc-builder" class="org.dcache.xdr.OncRpcSvcFactoryBean"> <description>Onc RPC service builder</description> <property name="port" value="1717"/> <property name="useTCP" value="true"/> </bean> <bean id="oncrpcsvc" class="org.dcache.xdr.OncRpcSvc" init-method="start" destroy-method="stop"> <description>My RPC service</description> <constructor-arg ref="rpcsvc-builder"/> <property name="programs"> <map> <entry key-ref="my-rpc" value-ref="my-rpc-svc"/> </map> </property> </bean> </beans>
      
      









性能






グラフからわかるように、Javaのコードは 'C'で記述されただけでなく、Linuxカーネルを追い越します(バグが修正済みであることを願います)。



コードを盗んで提供する



コードはLGPLライセンスの下でgithubで利用可能です。



All Articles