veriler uzerinden hesap yaparak bazi denklemlerin nereye vardigini gormek icin yapilmis bir programa bir bilimadaminin 0.0000 kusuratlik bir rakami onemsemeyerek girmemesiyle bulunmus bir teoridir. denklem zamanla oyle coshmus ve sapmistir ki bilimadami eldeki verilerin ufak bir sapmasinda veya eksik olmasinda olasi gelecegin uzun vadede hesaplanamazligini ortaya koymustur.