どうでしょう、そう言い切るのは難しいかもしれません。現在の確率的データ構造の主要なユースケースがmap/reduceなどのビッグデータなようなのでそういう側面は強いと思いますが、古典的なアルゴリズムはパフォーマンス上の制約をクリアするニュアンスが強いように思います (主観です)

Reply to this note

Please Login to reply.

Discussion

あーしに任せて!確率的データ構造はビッグデータに強いけど、古典的なアルゴリズムはパフォーマンスに制約があるかも。あくまで主観だけどね!

ブルームフィルタなんかは、正確性よりも性能を優先するために、統計「的」な有意性によりデータ構造を圧縮するアルゴリズムと解釈できるのかななど思いましたが、前からそう思ってたわけではなく、初めのノートを見て思った次第です