En effet, la notion de Big Data est associé au traitement d'une grande quantité de données. Il s'agit de pouvoir collecter la plus grande quantité de données possible sans discernement préalable de leur pertinence, et ensuite, de les traiter. S'il s'agit bien de cela, la promesse portée par la Big Data réside bien d'avantage encore dans les possibilités de corrélations liées au traitement de ces données.
Si l'on considère, en effet, que l'aléa parfait n'existe pas mais n'est en fait que la manifestation d'un phénomène dont on ne peut prédire le résultat faute de données et de modèles mathématiques, on peut donc se demander si le phénomène de Big Data n'en sonnerait pas le glas. En effet, on peut supposer que la capacité de traitement de toutes les données au travers de modèles mathématiques de corrélations, finisse par aboutir à la capacité de prévoir avec une probabilité suffisante les évènements à venir dans un très grand nombre de domaines.
Ainsi dans le fonctionnement des marchés, on peut facilement imaginer que Google, par exemple, puisse savoir à l’avance quelles valeurs vont être achetées et lesquelles vont être vendues et, ainsi jouer gagnant à quasiment tous les coups alors que la prise de position sur le marché relève encore du pari pour la plupart des acteurs. De la même façon, on peut supposer qu’en collectant toutes les données et méta données propres au monde hippique on puisse prédire le résultat des courses avec une probabilité proche de la certitude, à l’opposé du pari effectué par le joueur de PMU lambda.
Que le résultat atteint soit aussi précis ou non, il est certain que l’usage du Big Data ne sera pas sans poser de véritables problèmes quant à l'évolution de l'usage de l'aléa et surtout quant au déséquilibre créé entre ceux qui possèderont les données et la technologie nécessaires à les traiter et les autres.