実行モデル間のギャップをローカルに分散する
あなたはその製品でどんなビジネス上の問題を解決していますか?どのようなメリットが実現しましたか?
ランニングモデルの分散的な性質について考える必要はなく、私たちにとって大きな勝利です。 Google Cloud ML Engineでシンプルで複雑なモデルを実行します。単一のマシン上で簡単に実行できる小さなモデルを実行している場合でも、MLエンジンを使用することは意味がありました。我々は多数の小さな独立したモデルを並行して実行することができます。
何が嫌いですか?
見積もりの使用方法(カスタム見積もりツール、缶詰めなど)の例がさらに優れています。また、電流制限値25を超える電流を流すことができますか?モデルは並行して素晴らしいでしょう - 私たちはしばしば私たちのlimtiを実行します。
何が一番好きですか?
TF Estimatorを使用する場合は、テンソルフローモデルを分散して実行することは絶対にシームレスになります。ここ数カ月間、製品は本当に安定していて、テンソルフローの最新バージョンでより詳細で最新の状態に保たれています。
続きを開く
Bridge the gap between running models locally and distributed
What business problems are you solving with the product? What benefits have you realized?
Not having to think about the distributed nature of running models is a key win for us. We run simple as well as complicated models on Google Cloud ML Engine. Even when running small models which will easily run on a single machine, it made sense for us to use ML Engine - we are able to run a large number of smal independent models in parallel.
What do you dislike?
More examples on how estimators are used (Custom Estimators, Canned etc) would be great. Also, being able to run more than the current limit of 25? models in parallel would be great - we often run into our limti.
What do you like best?
If one uses TF Estimators, running any tensorflow model in a distributed manner becomes absolutely seamless. Over the last few months, the product has become really stable, reporting more detailed and kept nicely up to date with the latest version of tensorflow.
続きを開く