ただし、すべてを自分で確認することができます:カットの下で完全なビデオレポート。
Jan Jaap Cannegieterによるトップ10レポート-「手動テストと自動テストの組み合わせ:プロセスとツール」を閉じます。これは聴衆から4.09の評価を受けました。
手動テストと自動テストの違い、およびテストをより効果的にするために異なるテスト担当者が相互に作用する方法に関する簡単なレポート。 少し哲学的ですが、それでも楽しいレポートです。
Heisenbug 2017 Piterに来た人は、講演者に直接会う機会があります:彼は再び会議に参加します。彼はまた、あなたの推測するように、方法の選択に専念する別の、それほど興味深いレポート「システムをテストする最良の方法を見つけます」テスト。
9位: Andrey Smirnov、Dmitry Krasilnikov-「Dockerコンテナでのマイクロサービスのテストの全サイクル」 。 評価: 4.14 。
テストとDevOpsの合流点での、マイクロサービスの自動テストの編成方法と、これに使用するツールに関する技術レポート。 AndreyとDmitryは、テスト環境の状態の管理、マイクロサービスのコンポーネントテストの起動、チームでのテストフレームワークの機能の設計、完全なテストと展開サイクルのためのJenkins Pipelineの構築、およびAllure Reportを使用したレポートの作成を検討します。 これらの技術を使用する人に適した実用的なレポート。
一番上の8 番目はIgor Khrolです-「自動テスト:同じですが、より良いです。 」 レポートの評価は4.15ポイントです。
Rubyでのライブコーディングを含むビジュアルテクニカルレポート(ただし、単一言語の知識は必要ありません)。 イゴールは、生きた例を使用して、QAチームが受け入れ(および統合)テストにのみ責任を負うべきか、単体テストを開発者に与えるべきか、それとも怠theseなテスターの発明なのかを示します。 正しく使用された場合にどの自動テストが可能であるか、およびそのためのコードはどうあるべきか。
イゴールはHeisenbag 2017 Piterに参加しているため、個人的に彼とチャットしたい場合は、あらゆる機会があります。 Igorの今後のレポートは 、世界中のデータと数値のテスト専用です。
次のタイトルを読むには時間がかかります。 番号7を満たします: Artyom Zinnatullin、Orkhan Huseynov-「Juno Androidのテスト-愛を込めたアプリケーション:CI、ユニット、統合および機能(UI)テスト。 100%Kotlin、90%+ RxJava、Spek、JUnit、UIテスト用のDSL 。 評価された視聴者: 4.21
開発者とQAの2人のクールでポジティブな男が、Junoアプリケーションが自動的にテストされる方法、テストの実装に何を、なぜ使用するのかを説明します。 ただし、レポートのネタバレはタイトル自体に含まれています。 スピーカーは全力を尽くしたので、何かがあなたに当てはまらないように見えても、それはまだ面白いでしょう。
評価の6行目は、 Alexei VinogradovとRoman Iovlevのタンデムのレポート-「QA Battle:PageObjects withtyping(JDI)vs. (セレン化物)を入力せずに 。 」 平均評価: 4.22
AlexeyとRomanは、さらに悪いことを比較します。UIテストで型指定された要素または型指定されていない要素です。 退屈なマニュアルやドキュメントを読む代わりに、セレナイドとJDIの間でアクションと剣闘士の戦いがあり、その間にスピーカーはPageObjectsを正しく記述する方法、定義済みオブジェクトの階層が便利か、簡潔さが常に才能の姉妹かを調べます。
Heisenbag 2017 Piterで再びAlekseyを聴くことができます 。今回は自動テストに関するレポートがあります 。
トップ5に合格しました!
第5号: スタニスラフバシキルツェフ-「ランダムテスト」 。 評価: 4.27 。
スタニスラフは、すべてのフォームとサンプルからIvan Ivanovich Ivanovの権利を求めて戦い、テストデータと動作をランダム化する方法について話し、同時にQala Datagen(Javaの場合)、Random Ext(JavaScriptの場合)、およびさまざまな組み合わせライブラリを使用してコードを緩和します。 このレポートは主に自動化されたテストに関するものですが、手動のテスターにも役立ちます。
ウラジミール・シトニコフは、 「ストレステストの落とし穴」というレポートで、私たちのトップの4行目を獲得し、 4.28の評価を受けています。
このレポートでは、エンタープライズアプリケーションのストレステストの典型的な落とし穴について説明します。 多くの場合、分析中に、テストプロセス中にすべてのページが404エラーを示し、テストの開始時に応答時間が優れていることが判明し、最終的には無限になりがちであるか、負荷がまったく供給されなかったことが判明します。 Vladimirは、高負荷のサービスとアプリケーションのパフォーマンスを測定する際に、このようなエラーを回避し、典型的な問題を回避する方法を説明します。
栄誉ある3位はDan Cuellarのレポート-「Appium:Automation for Apps」です。 評価: 4.29 。
過去10年にわたって、Web開発者は多くの便利で便利なツールを考案してきましたが、モバイル開発者は長い間、継続的な統合や自動テストなどを行わずにいました。 しかし、これは新製品のリリース速度に直接影響します。 この厄介なギャップがAppiumフレームワークを埋めました。
DanはAppiumの直接のクリエーターであり、彼の機能と機能、および開発全般について話しています。 講演では、テクノロジーと実装の機能、および活気に満ちた友好的なコミュニティを備えたプロジェクトの哲学について説明します。
Appiumの人生から新しい詳細を聞き、ダンに質問したい場合、彼はHeisenbag 2017 Piterでレポートの更新バージョンを 入手します。
2位( 4.37の評価)は、 Alexander Bayandinに正当に与えられています-「ChromeDriver Jailbreak」 。
名前が示すように、レポートの話はChromeDriverについてです。 Selenium JSON Wire Protocolの場合、人気のWeb開発者Chrome DevToolsと同じChromeデバッグプロトコルを使用します。 これは、Alexanderが言うように、Seleniumのテストで、直接の手といくつかの知識の助けを借りて、DevToolsのほぼすべてのパワーを使用できることを意味します。 詳細とヒント-完全なビデオレポート。
そして最後に、参加者によるとハイゼンバッグ2016モスクワの最高のレポート。 会議の真珠!
フィリップ・ケクス-「ロボットにゲームの遊び方を教える方法」 評価: 4.61
もちろん、これは完全にターミネーターが
すべての成功したモバイルゲームは開発および成長しており、バグの数は増加しているため、何らかの方法でテストする必要があります。 自動テストが助けになります。 しかし、非標準のインターフェイスと複雑なインタラクティブ機能を使用してテストを教える方法は? フィリップはgamedevでのテストについて語り、実際の例を示します。 錫メッキの方法を知っている人のための自動テストの極端なケース。
ご覧のとおり、すべてのレポートは純粋に実用的であり、多くは「ハウツー」のガイドとして適しています。または、少なくとも正しい方向を掘ることができます。
次のハイゼンバグまで1週間以上が残されていますが、まだ登録される可能性があります。 もっとクールなレポートと筋金入りのテストが必要な場合は、ぜひご利用ください。
Heisenbag 2017 Piterの詳細と登録は、会議のウェブサイトにあります。