Τα τελευταία χρόνια, οι τυχαιοκρατικοί αλγόριθμοι έχουν προσφέρει μια σημαντική τε-
χνική σχεδίασης αλγορίθμων στην Θεωρητική Πληροφορική, προσφέροντας αλγόριθμους με
μεγάλη αποδοτικότητα και εύκολη σχεδίαση. Η κλάση BPP σχεδόν αντικατέστησε την P
ως το μοντέλο του αποδοτικού υπολογισμού. Αυτή η πρόοδος, όμως, έθεσε φυσιολογικά το
ερώτημα: Η τυχαιότητα είναι εγγενές χαρακτηριστικό αυτής της υπολογιστικής ‘ευκολίασ’,
ή πρόκειται απλά για μια σχεδιαστική τεχνική που μπορεί να αφαιρεθεί μηχανιστικά επιβαρύ-
νοντας μόνο πολυωνυμικά τον αλγόριθμο· Πρόσφατες καινοτομίες στην ερευνητική περιοχή
δείχνουν ότι, κάτω από κάποιες εύλογες υποθέσεις, κάθε τυχαιοκρατικός αλγόριθμος μπορεί
να προσομοιωθεί από έναν ντετερμινιστικό, χωρίς να υπάρχει παραπάνω από πολυωνυμική επι-
βάρυνση στον αριθμό βημάτων (χρόνο) του αλγορίθμου. Κάποιοι ερευνητές πιστεύουν ακόμα
και ότι BPP = P. Σε αυτό το κείμενο θα μελετηθούν τα αποτελέσματα αυτά που αφορούν
Ομοιόμορφες Συνθήκες, δηλαδή υποθέσεις που αφορούν ομοιόμορφα υπολογιστικά μοντέλα.
Μια παράλληλη προσέγγιση έρχεται από το πεδίο των Κυκλωμάτων Boole, που αποτελεί σύνη-
θες εναλλακτικό υπολογιστικό μοντέλο, παρ’οτι μη-ομοιόμορφο. Αποδεικνύεται ότι η ύπαρξη
κάτω φραγμάτων για τέτοια μοντέλα, είναι αποτέλεσμα της ύπαρξης τέτοιων ντετερμινιστικών
προσομοιώσεων.
During the past years, randomization has offered a great comfort in Computer Science,
by providing efficient algorithms for many computational problems. The class BPP
has almost replaced P, as the class of efficiently solvable problems. This progress also
raised a question: The simplification given to our computations by using a random ”coin
toss” is inherent or circumstantial? In other words, randomization provides a non-trivial
computational boost-up, or it’s just a design comfort, and we can finally remove it. Recent
advances have proven that it is possible, under some reasonable assumptions, to replace
a BPP randomized algorithm with a deterministic one (i.e., to derandomize), only with
polynomial loss of efficiency. Today, there are many researchers who believe that finally
BPP = P. The main reason for this perception to be widely believed, is that real randomness
doesn’t really exist in computers. It is under discussion if it even exists in Nature.
Randomized Algorithms and "random sources" occasionally used by Computer Scientists
(especially Cryptographers) are based on functions whose behavior is simply hard to
predict. It is not clear that our computers have access to an "endless stream" of indepedent
coin tosses. The main topic will be to investigate if we can simulate a randomized
algorithm by a deterministic one, using constructions that provide bits almost indistinguishable
from bits chosen at random (using he Uniform Distribution). The existence of such
constructions, and the conditions necessary for their existence is a wide field of research
during the last two decades. Also, a different view on the issue of derandomization comes
from another area of research in Theoretical Computer Science, the Boolean Circuits, and
specifically from the effort to find lower bounds for certain families of circuits. The existence
of such bounds could separate known Complexity Classes, and it would imply even
that P is not equal to NP! The "quest" for lower bounds, using Boolean Circuits as an alternative
model of computation, seemed easier than using the (traditional) Turing Machines, and
there were many and remarkable results. Unfortunately, all these efforts were (so far)
unfruitful, but, as we will see, they are closely related with derandomization conjectures.