検索エンジンには、コピーと貼り付けを強制終了する機能があります! どうして?

    !  ?

嫌いなコピーペースト との戦いについていくつかのトピックを読んだ後、邪悪なコピーペーストの大部分とその生息地のリソースを冷やすのに十分な単純な何かが足りないと感じた。



アイデアは

インターネット上ですべてのものが検索エンジン(最初の位置、トラフィック、SEO)に強く結び付けられている場合、 検索エンジンが元のコンテンツの作者の権利を保護する必要がないのはなぜですか?





ここで読むものの一部は、ずっと前に表明された思考の繰り返しのように思えますが、完全なスキームを策定し、これがまだ広大なネットワークに存在しない理由を見つけたいと思います。



だから:



自由に利用可能な情報をコピーすることから身を守ることは不可能です。

しかし、あなたはそのようなコピーを有益でないものにしようとすることができます。



コンテンツを公開するリソースが検索エンジン明確に表示されるようにしたいという事実から始めましょう。これにより、トラフィックが増え、それに応じてお金がかかります。 再公開のルールに違反した場合、リソースを除外したり、インデックスから個々のページを除外したりすることができます。



私がトピックで読んだことやそれらについてのコメントから判断すると、これは決して新しいことではなく、実際には現在行われていますが、著作権者の主導でのみです。 標準的な方法:特別なフォームを使用してサイトを検索エンジンとプロバイダーをノックします。 しかし、苦情が手動で考慮されるまで時間がかかるため、この方法は非常に非効率的です。 主な問題は自動化欠如です



自動化の欠如には多くの理由がありますが、主な理由は誰でも どんなサイトで強打できることです。





どうする?



誰もが高品質のオリジナルで重複のないコンテンツに興味を持っています: 著者、ニュースリソース、検索エンジン (検索結果のオリジナルへのリンク)。 制御されていないコピーと配信は広告主の手にしか渡らないため、広告コンテンツはここには含まれません。



しかし、これら3つのうち、 検索エンジンだけが状況に影響を与える力を持っています。 そのため、 コンテンツの保護を導入する別の通信社からではなく、それらからソリューションが正確に期待できるのです。



さらに、検索エンジンには、このプロセスを自動化する機能があります。 自動化に必要なのは、コンテンツの作成者が誰であるかを正確に知ることだけです 。 明らかに、著者は登場前にこのコンテンツを持っている人です。 したがって、GoogleやYandexのようなプレーヤーの場合、「サイトを追加」という標準のフォームに加えて、「 オリジナルコンテンツを追加 」というフォームを作成すれば十分です。 そして、このフォームを最初に使用するのは作成者です。



申し込みフォームはとても簡単です:



理想的には、このようなアプリケーションをすべての検索エンジンに送信せず、コンテンツ作成者データベースと各作成者の公開設定をどこでも複製しないために、そのようなサービスは検索エンジンとは無関係に存在し、後者は同じコンテンツのページをインデックス付けおよびランク付けするときにこのような共通データベースを使用する必要があります。

まさにそのようなスキームは、コメントの1つで flashvoidを示唆しました。 しかし、彼はサービスから検索エンジンへの開始を提案しました。

そして、署名された記事のかなりのベースが蓄積されると、検索で元の記事を選択するために、検索エンジンにユニバーサルAPIを提供することが可能になります。
もちろん、これはより正確ですが、コピーアンドペーストの収益性に影響を与える力をすでに持っているので、何に基づいてイニシアチブを取るべきかは検索エンジンだと思います。 このような独立した国際的なサービスの作成は誰に資金提供されるべきか不明であり、結果として著者によって支払われますが、検索エンジンの場合、このスキームは検索結果の質の向上に役立ちます。 サイトマップで起こったように、すべての検索エンジンで1つの設定ファイルを使用できるように、サイト運営者のアカウントの設定に関する単一の標準に同意すれば十分です。



遅かれ早かれ、このようなスキームの実装は、すべての自尊心のある検索エンジンによって実装される必要があります。さもなければ、オリジナルへの高品質のリンクで応答する競合他社失われます。虹色とすべての可能な形状とサイズのポップアップ。



盗まれたコンテンツでページのインデックスを作成するとき、検索エンジンは何ができますか? 既に検索エンジンの戦略に依存しています:インデックスからリソースを除外する(警告を介して)、特定のページを除外し、リソースの評価を下げる、特定のページの評価を下げて、元のページよりも高いリンクがない場合でも(これがすべて望ましい) 関連するメッセージングで行うために、リソースの所有者は、彼らが鈍く驚い問題への位置の減少、またはインデックスから自分のサイトであっても消失しなかったし、繰り返されることはありません、とではないことを理解している。長い時間の管理者のアドレス あなたは)すべての通常のサイトが接続されるようにしようとしているにウェブマスターのための関連性の高い検索エンジンのサービスを取る、またはこれらのサービスに直接メッセージを表示することができます。 検索エンジンの評判と品質が最終的に依存するのは、この戦略です。



別のポイント。 検索エンジンは、作成者による使用にどのような制限が課されているかを知るために、コンテンツを使用できるAPIを提供する必要があります







最後に



検索エンジンでの位置が重要な情報機関などのサイト(トラフィック=利益、そして結局、制限を複数回違反する場合、評価を下げるだけでなく、最終的に禁止することもできます)は、作成者(検索エンジン)が設定した制限に違反して、他の人のコンテンツを公開することを許可しませんオリジナルへのリンクがあるかどうか、オリジナルと比較した公開の量などを簡単に判断できます)、疑わしい公開の前に、APIを介してチェックし、望ましくない結果に対して保険をかけます。



ブロゴスフィア 、ディスカッションサービス、およびアグリゲーターの状況では、より簡単です。検索結果で元の値を超えないようにする必要があります。 そして、検索結果は、最初の顔がオリジナルになり、2番目の顔(ディスカッションサービスでのディスカッション)が非常に役立ちます。

ほとんどの小さなサイトでは、何も変わりません。 それらは何にも影響を与えないので、作者のアプリケーション、またはチェックすることが望ましいリソースのリストにそのようなリソース(デフォルトではチェックされない競争力のあるローカルまたはテーマ別の小さなリソース)を作者が含めることを除いて、それらに手を加える価値はありません。



翻訳を伴う状況では、翻訳者からの翻訳の原作者の申請書を作成して、元の著者の同意を得て翻訳することは通常の慣行であると思います。



いずれにせよ、公開時に、他の誰かがあなたの資料を受け取らず、再発行の禁止を伴う著者の申請を送信しないように、オプション「完全無料使用」であっても申請を送信する必要があります。





私の意見では、そのようなスキームは非常に必要であり、効果的であり、最も重要なことは実行可能です。







長所と短所を見た:



-検索エンジンの評価のダウングレードは、それ自体がオーディエンスを作成し、検索からのトラフィックに依存しないリソースにとって重要ではない場合があります。



-システムが重複とみなす非常に類似したテキストがイベントについて実際に書き込まれる場合、どうすればよいですか? またはその逆に、そのような方法でテキストを変更し、システムに類似性が見られないようにAPIを確認してから、それを自分のテキストとして渡すことができます(ただし、テキストの強い変更は実際に作業を引き付けますが、悪意のあるコピーアンドペーストと戦っています)。



-インデックスを作成するとき、検索エンジンは、重複を判断し、再公開のルールに違反するために、受信したコンテンツをベースと比較するリソース集約的なタスクを実行します。 これは、今日、そのようなスキームの実装の欠如の理由であるように思えます。 しかし、コンピューティングリソースは日々増加しており、時間の問題に過ぎません。 一方、narod.ruの単一の外部リンクなしで新しいページのインデックスを作成し、データベース全体に対してすぐにチェックする場合、これは愚かです。 パブリッシング用の最もアクティブなリソースプラットフォーム(大規模なオーディエンスが存在し、トラフィックの方向が依存する場所)のみを慎重にチェックし、最近の最近のパブリケーションのみをチェックするだけで十分です(再度、トラフィックが引き付ける関心があります)。 つまり、小規模なサイトの検証を安全に延期する(または実行しない)ことができ、重要性が長くなくなっている古い出版物を確認する必要はありません。 しかし、出版物の著作権者の要求に応じてそのようなチェックを行う機会を残すために、フェンスを介して隣人のポータルで10歳の記事のコピーを見て、サイトへのリンクを送信すると、システムは自動的にそのようなチェックを行い、発行の位置を変更します(これは既に可能であるため、要求は許容量になります)。 そしてもう一度、私は主なことを強調します-これはすべて自動化されています。



+検索エンジンには、そのようなスキームを実装するためのすべてのレバー、リソース、および技術的な能力(おそらくほぼ)があります。



+国際性と無料のソリューション。 ( 最近の投稿では、法的な調整、または有料サービスを備えた状態管理のレベルでソリューションが提案されました)



+現在必要なプロセスの完全自動化。







なぜそのようなスキームはまだ実装されていないと思いますか?



理想的には、YandexまたはGoogleの代表者の考えを聞きたいです。








All Articles