PHP lib_curlのOOPラッパー

数年前、「Comic Book Aggregator」と呼ばれる小さな個人プロジェクトを行いました。 プロジェクトの本質は、RSSフィードを持たないコミックを含むサイトがたくさんあるということです。 そして、私は率直に言ってこれらのサイトに手動でアクセスして更新を確認するのが面倒でした。



したがって、サイトをスケジュールに従ってクロールし、ページのコンテンツを解析し、さまざまなアルゴリズムを使用して更新に関する情報を取り出し、この情報をデータベースに入れて、別のスクリプト、ビューアー、RCC、Atom、またはKhtmlを生成するプリミティブな「スパイダー」が作成されました。



サイトにアクセスするには、PHP lib_curlモジュールを使用することにしました。 もちろん、file_get_contents()のような単純な関数で取得できましたが、この関数は必要な機能(httpステータスやヘッダーの取得など)を提供しませんでした。また、ホスティングにwgetがありませんでした。 そして、そのためのPHPモジュールは私には知られていません。



モジュールのドキュメントを掘り下げた後、curlを操作するために必要な一連のルーチンコードを記述せずに、また便利なOOPインターフェースの形式でhttpsを提供する小さなライブラリを作成するのが理にかなっていると判断しました。 約1週間のゆるやかなコーディングと1か月のデバッグで、ライブラリが作成され、2年間、いくつかの同様のプロジェクトで使用しています。



私が情報源を見せた何人かの人々は、その事は非常に便利であることが判明し、それを公に利用できるようにするといいだろうと言った。 さらに、いくつかの潜在的な雇用者は私のコードを見たいと思っていました。 そのため、 GithubにSnusmumrikを配置することが決定されました。 そして、みんなにリンクを張ってください。



私はアイデアや実装を革新するふりをしません。 この事がビジネスの誰にとっても役に立つなら、私はうれしいです。



Snusmumrikでできること:

-構成配列を介してKurlaの主要なパラメーターを構成します。

-クラスメソッドのセットを使用してKurla経由でHTTPリクエストを送信します。

-最も一般的なブラウザを装います。

-応答ヘッダーの解析に煩わされないでください。

-クッキーの分析を気にしないでください。

-既に受信したCookieを使用して、サイトにログインします。



Snusmumrikが知らないこと:

-httpsで作業します。 いつか、私は間違いなくhttpsプロトコルを介して作業する基本を理解し、この誤解を修正する時間を見つけるでしょう。



Snusmumrikのドキュメントと使用例は、 GithubリポジトリのReadme.txtファイルにあります。 英語では、時間の経過とともにロシア語版を作成する予定です。



代替案:

-PEAR HTTP_Request2 ;

-Zend_Http_Client ;

- スヌーピー

-gCurl



All Articles