Tilbake til norsk hovedside

Back to English main page

Kant, Chaitin and the absence of

axioms in arithmetic

Abstract: Kant maintained that arithmetic, in contrast with geometry, has no axioms, only "practical postulates". In the first section I give an account of what this contention may mean, and how to reconcile it with the existence of modern axiom systems for arithmetic, exemplified by the well-known Peano axioms. Then I shall tell a very superficial story of three important developments in the twentieth century: Gödel's incompleteness theorem, Turing's proof of the unsolvability of the halting problem for computers (or rather "universal Turing machines", as there were no real computers in those days), and Chaitin's recent investigations into what he calls "randomness" or "irreducibility" of arithmetical information. In section 5 I discuss the metamathematical and philosophical lessons Chaitin draws from these developments, and argue that they are better understood as natural, though unexpected and unpredictable, confirmations of Kant's view of arithmetic.

1. Kant on axioms or postulates in arithmetic.

First of all, let me just recall Kant's general position on mathematics: It is a synthetic a priori science based on schematic construction of concepts in intuition.

Now, this ultrashort formula is readily understandable only to Kant experts (and, of course, they don't need it in the first place). As I want this lecture to be understandable (with some intellectual stretching) to the broader audience of philosophically interested (and somewhat literate) people, let me elaborate just a little. (Bear with me, fellow Kantians!)

Mathematics is a priori. This means that mathematical statements are "thought together with their necessity". If we understand what is meant by "2+2=4", we cannot judge this to be true without judging it to be necessarily true. In contrast, "2 live wolves + 2 live sheep = 4 live animals" not only isn't necessarily true, it is highly unlikely to be true at all. A much more likely result of this "empirical calculation" is 2 happy, satisfied wolves and 2 half-eaten sheep carcasses. (But before the "empirical addition", they are necessarily 4 live animals.)

Mathematics is synthetic, i.e. a mathematical statement (generally) says something P about something S, in such a way that what it says, P, is not already thought in our conception of what it says this about, S. The calculation 2+2=4 may be pretty obvious and immediate, but, strictly speaking, the number 4 is not already thought in our conception of the task of adding 2 and 2. Most other statements we make are also synthetic; normally it would seem rather pointless to make statements like "a bachelor is not married", unless it is meant to clarify the meaning of the word "bachelor" (and then it is not really a statement about bachelors, but about the word "bachelor").

Mathematics is a science based on construction of concepts in intuition. Mathematics is not just a heap of concepts and statements, it is a system of knowledge. Its concepts are connected by a hierarchy of definitions, and its statements are connected by a hierarchy of demonstrations. At the base of each hierarchy are certain undefined fundamental concepts and certain undemonstrated fundamental statements or axioms. So far, the picture is fairly standard, well known from positivist philosophers of science such as Hempel (or our own Arne Næss), except for the term demonstration instead of proof. But now Kant begins to deviate from this standard picture. First, though the fundamental concepts of mathematics are undefined in the formal logical sense of "definiens = definiendum", they are not, according to Kant (in my interpretation), undefined in his broader sense of "originally exhibiting the complete concept of a thing within its borders" (my translation). These fundamental concepts, such as "point", "line" or "number", are defined as prescriptions for their own constructions in (one of or both) our fundamental pure intuitions, space and time. Indeed, definitions in the form "definiens = definiendum" are to be allowed in mathematics only if they 1) ultimately lead back to such prescriptions for elementary schematic constructions, and 2) themselves give a composite prescription for the composite construction of the composite concept in question. Thus, we might define "biangle" analogously to "triangle", as "finite plane figure delimited by two straight lines". Logically this definition is quite OK, and it meets the first criterion above, but not the second. For if we try to carry out the geometric construction prescribed, we discover that we can't. So, in contrast with the analogous definition of "triangle", this is not an allowable geometrical definition. Second, a mathematical statement is not expressing an empirical or logical connection between its concepts, but a connection between the possible constructions of these concepts. As this connection appears in pure intuition, it is a priori, and as it does not (normally) appear at the purely conceptual level, it is (normally) synthetic. This is why most mathematical statements are synthetic a priori. Analytical statements are allowed in mathematics only if the conceptual connection involved is also apparent in the construction of the concepts in pure intuition. In the case of axioms, the synthetic connection appears immediately from the construction of the concepts involved; for other statements, a number of auxiliary constructions are needed to establish the connection. This sequence of auxiliary constructions can be organized into a series of immediate "constructional inferences" leading from the axioms (and/or previously proved statements) to the statement in question. This series of inferences is what we call the proof of the statement. Kant uses the term demonstration to emphasize the construction-dependent character of the inferences, reserving the term proof (Beweis) for consecutive series of purely conceptual inferences (either logical or transcendental, from the conception (Vorstellung) of the possibility of experience and objects of experience). So, for Kant both the definition of mathematical concepts, the fundamental mathematical statements (the axioms) and the mathematical proofs are essentially construction dependent. Here I conclude my brief sketch of Kant's general views on mathematics.

(Commercial break: If you want to know more about Kant's philosophy of mathematics, read my excellent thesis on the subject! End of commercial.)

Now, we said above that the hierarchy of mathematical statements have a base consisting of axioms. But what are these axioms? According to Kant, they are "synthetic a priori fundamental statements (Grundsätze), in so far as they are immediately certain" (B 760). The axioms of geometry are founded "in the successive synthesis of the productive imagination (Einbildungskraft) in the generation of forms (Gestalten)", and "express a priori the conditions of sensible intuition requisite for the schema of a pure concept of outer appearances (Erscheinungen) to be formed (zustande kommen)" (B 204). Though Kant does not (as far as I know) explicitly mention or give examples of axioms (in the sense of B 760) outside geometry, I have little doubt that Kant intended the above description to be valid for any axioms there might be in other fields of mathematics (except for the extra qualification of the relevant appearances as "outer"). Such intuition-founded conditions for a pure concept of appearances to have a schema (and thus be constructible) must be general; they must give immediate synthetic connections between fundamental concepts, and these concepts must be general concepts, not definite descriptions of an individual "object".

Geometry has its axioms; given Euclid, and Hilbert's extension and correction of Euclid's system, that would be hard to avoid admitting. But what about arithmetic? Typical arithmetical statements, as 2+2=4, are, according to Kant, synthetic a priori: they are necessary statements, and what they say is not already thought in the concept of what they are saying this about: the number 4 is not already thought in the idea of the addition of 2 and 2. But they are hardly immediately certain, as is evident from examples with greater numbers (and as every pupil in primary school can confirm). Also, they are not general, they concern individual numbers. Therefore, such statements cannot be axioms. Yet, in a way they are fundamental statements of arithmetic, in the sense that they are not proved from other more basic statements: they are simply calculated. They are all at the same epistemic level. A complex calculation may contain a simpler one, but only as a part of the total calculating process, not as a starting point of a proof.

This postulate on the possibility of addition is a general synthetic a priori fundamental statement. So why not forget about the linguistic niceties and call it an axiom? In fact (and here I go beyond anything that could be read "between the lines" of Kant's text, though not, I hope, beyond what could be maintained in accordance with his philosophy), it could very well be an axiom, in some "metamathematical" theory of arithmetical operations. But it is not, and cannot be, an axiom of arithmetic, simply because arithmetical statements like 2+2=4 are not proved from this postulate: this addition statement is just an individual instance of the additive synthesis declared generally possible by the postulate. Some of the Euclidean postulates of geometry also are declarations of the possibility of certain constructions, for instance "to draw a straight line from any point to any point". But geometric statements like "the sum of the angles in a triangle is equal to two straight angles" are proved (or rather demonstrated) from this postulate in conjunction with the others. Such a demonstration will of course contain instances of the construction declared possible by the postulate, but such instances are used as intermediary constructions in the demonstration, they do not in themselves contain any information not already thought in the general postulate, while the result 4 of the task 2+2 is definitely not already thought in the postulate of possibility of addition. Therefore Euclid's postulates are axioms of geometry in Kant's sense, in contrast with their arithmetical counterparts.

(A brief digression on axioms and postulates in Euclid: As is well known, in his great work Euclid distinguishes axioms of very general validity and postulates specific to geometry. Of his five postulates, the first three are of the form above: 1. To draw a straight line from any point to any point. 2. To produce a finite straight line continuously in a straight line. 3. To describe a circle with any centre and distance [i.e. radius]. All of these clearly express the possibility of a certain type of geometrical construction (or in other words, synthesis of pure spatial manifold). The last two have a distinctly different form: 4. That all straight angles are equal to one another. 5. That, if a straight line falling on two straight lines make the interior angles on the same side less than two straight angles, the two straight lines, if produced indefinitely, meet on that side on which are the angles less than two straight angles. (The famous parallell postulate.) The first one might perhaps be interpreted as a somewhat awkward expression of something like 4'. To reproduce a given figure anywhere in space and with any orientation. The parallell postulate is equivalent to the possibility of changing the scale of a figure without changing its form, and this equivalent statement might be reformulated as 5'. To reproduce a given figure in any scale. The axioms are general statements not of either the "to do"-form or the "that"-form, example: Things which are equal to the same thing are also equal to one another. End of digression.)

I hope I have succeeded in making Kant's claim about the absence of axioms in arithmetic at least somewhat understandable. Now I will confront it with the fact of the existence of the Peano axioms, generally regarded as just what Kant declared impossible, an axiom system for arithmetic. Let us first briefly recall these axioms.

We have one primitive predicate, "is a natural number", which can be true or false of objects, one unary operation S, "the successor operation", which to a given object x gives an object Sx, called the successor of x, and finally one primitive individual symbol 0, referring to one definite object. The axioms are as follows:

P1. 0 is a natural number

P2. If x is a natural number, then Sx is a natural number

P3. There is no natural number x such that Sx = 0

P4. If x and y are natural numbers such that Sx = Sy, then x = y

P5. Let P be any predicate. If P(0), and P(x) implies P(Sx) for any natural number x, then P(x) for any natural number.

(Note: P(x) means that P is true of the object x.)

These axioms constitute a very precise description of the construction scheme I call "infinite discrete succession". P1 declares the succession as non-empty and sets a relative starting point, P3 declares this starting point as absolute, P2 is a "continuation principle", "we can always go on", P4 is a "uniqueness principle", there is one succession, not several "converging" ones, and P5, better known as "the induction principle", allows us to "quasi-complete" the succession, in the sense of subsuming all items of the infinite succession under a predicate.

Add to the axioms the recursive definition of addition: x+0 = x, x+Sy = S(x+y), and the definitions of individual signs 1 = S0, 2 = S1, 3 = S2 and 4 = S3, and we can prove that 2+2 = 4, thus: 2+2 = 2+S1 (def. of 2) = 2+SS0 (def. of 1) = S(2+S0) (def. of addition, second part, instantiated with 2 as x and S0 as y) = SS(2+0) (again def. of addition, second part, with 2 as x and 0 as y) = SS2 (def. of addition, first part, with 2 as x) = S3 (def. of 3) = 4 (def. of 4). (We should note that the definitions presupposes at least P1 and P2.)

We have proved a typical arithmetical statement, 2+2 = 4, from the Peano axioms together with some appropriate definitions. This procedure can obviously be generalized to calculate the sum of any two natural numbers. And we can of course give a similar recursive definition of multiplication, etc., and eventually prove any "number formula". Does not this show that the Peano axioms really are axioms of arithmetic, and that Kant consequently was wrong?

Well, it's not quite that simple. According to Kant, axioms should be general judgments, but P1 is clearly a singular judgment: it tells us something about an individual object, called 0. The other axioms are general in their "outermost form", but both P3 and P5 refer explicitly to this unique object 0. The only truly general judgments among these axioms are P2 and P4.

Obviously the singular judgment P1, with its appointment of a "starting number", is crucial for our ability to implement the calculation procedure above. And if we look closer at that procedure itself, we discover that it is really just a superfluous adornment in fancy symbols of our normal down-to-earth ostensive addition procedure! It could just as well be written 2+2 = 2+(1+1) = (2+1)+1 = 3+1 = 4. And here the two first steps are really unnecessary, because the natural ostensive procedure for this addition is the synthesis of a sequence of two "counting sequences" 1,2 and 1,2 into one continued counting sequence, which gives the sequence 1,2,3(1),4(2), where we have written the items of the second sequence in parenthesis behind the corresponding items of the continuing sequence. Thus regarded, the "proof" above is not a proof in the normal sense, starting from the axioms and moving through a sequence of inferences to the conclusion, but a practical procedure based on the postulate of the possibility of addition, understood as synthesis of a sequence of counting sequences or successions into one continued succession.

Yet, the Peano axioms are axioms in a roundabout way. They constitute what I call a defining axiom system, that is, they are not really axioms, but a composite definition of a certain mathematical system. That system is not, however, the system of natural numbers and operations on them, which we call elementary arithmetic, but an abstract-algebraic reconstruction of it. I can't go deeper into this in this lecture. If you want to know more about defining axiom systems and how they relate to real axioms and ordinary definitions, you will find some examples in my thesis, chapter 3 and 5, and many more in the "companion thesis", not yet published.

I should just mention in passing that the expedient of "defining" numbers as sets (for instance the von Neumann notation: 0=Ø, 1={Ø}, 2={Ø,{Ø}}, etc.) and deriving the Peano axioms from the Zermelo-Fraenkel axioms of set theory, does not fare any better. But it is great fun, if you like the absurd kind of humour. You could compare it to shooting down a sparrow, not with a cannon, as in the Peano theory, but with the combined US and russian atomic arsenal. See chapter 4.2.5.1 of my thesis.

Thus, I think the Kantian claim of the absence of axioms in arithmetic can quite easily be upheld in spite of the modern "axiom systems" of arithmetic. Now for a relaxing interlude of three mathematical fairy tales from the twentieth century, before we return to some hard philosophical work towards the end of the lecture.

2. Hilbert's program and Gödel's incompleteness theorem.

Now I guess some of you go: "Oh no, not yet another version of that boring old story!" Well, yes, I'm afraid that is the case. But remember, not everyone have heard it, and it is a story worth telling. Just go to sleep and I'll wake you up before the next tale begins.

Hilbert is widely recognized as a giant, one of the greatest, both in mathematics and in the philosophy of mathematics. Despite this, I think he has got just a tiny fraction of the recognition he deserves. Quite honestly, he should be mentioned on a par with Euclid, Plato, Aristotle, Newton and Einstein. And so he would, if he had not had the bad fortune of being wrong on a single, but essential, issue. But his failure is far more glorious and spectacular than most successes.

For more than two thousand years, mathematics had been a science in steady progress, apart from qualms about Euclid's fifth postulate and Newton's infinitesimals, and these difficulties had been resolved to the satisfaction of most of the scientific community as the nineteenth century neared its end. Then Cantor came along and built the tower of set theory, reaching far into the heaven of infinity, and as we all know, this hybris was justly retributed by the Babel's confusion of the paradoxes. I don't think it is possible for us to really understand what a shattering experience this was for many contemporary scientists (though Cantor himself seemed totally unruffled). The young Frege had tried to reduce at least elementary arithmetic to pure logic, but the famous Russell's paradox showed that you had to be very careful in the process of going from a concept to its extension, the set of things that fall under the concept. On the whole, the lesson learned was that you needed a more secure foundation of mathematics, especially where infinity was involved.

Then Hilbert had a brilliant idea. In fact, "brilliant" is far to weak a word, this was an idea of the once-in-a-century or even once-in-a-millenium kind. Like all such ideas it was very simple in its essence, but very complex in its execution. He noted that any mathematical statement or proof, no matter what lofty infinities it seemed to talk about, had to be expressible as a finite sequence of symbols, all of which belonged to a finite, or at the very most, a countably infinite "alphabet". So, Hilbert reasoned, if we invent a standard alphabet, encode all mathematical statements as finite sequences of symbols from that alphabet, formed according to certain rules, and finally encode all permissible patterns of mathematical inference as simple rules for transforming such sequences, then everything should be transparent, and we should be able to determine without any uncertainty which statements do follow from given axioms, and it should be quite readily apparent whether a given mathematical system is consistent or not, i.e. whether there might be hidden paradoxes lurking somewhere in it. In other words, he wanted to create a complete decision procedure for all of mathematics, a mechanical algorithm for deciding any mathematical question (assuming this or that axiom system).

Of course, he and his contemporaries were aware of the numbing magnitude of this project, and no one expected it to be completed overnight. But for some years they were making steady progress towards that final goal, and few, if anyone, really doubted it could be done. Also, it seems, few, if anyone, reflected on what it would mean for this old science if they succeeded. So let us take a moment to do just that.

If we had a mechanical decision procedure for mathematics, we could, at least in principle, construct a machine which could answer any mathematical question. Of course, for some questions the machine might have to run for a few millenia before coming up with an answer, but if it had an adequate energy supply and did not wear down it would eventually decide the issue. Now, this may be the dream of the weary school-child, but mathematics would be effectively reduced from a science to a technology. As Euclid may be seen as the end of the beginning, Hilbert would be the herold of the beginning of the end of mathematics as we know it. We would still need "mathematical technicians", and may be a few "seers" who could dream up new proposals for theorems to be tested by the machine, but the old-fashioned mathematician, who is both a dreamer and a hard-working path-finder constantly searching for a way to make her dreams come true or prove them false, would be out in the eternal cold.

But this nightmarish brave new world will never come into being. Hilbert's project was proved impossible by Kurt Gödel in his incompleteness theorems. These theorems may be loosely formulated thus:

1. In any consistent formal system capable of encoding elementary arithmetic there will exist a meaningful statement such that neither it nor its negation can be proved within the system.

2. Within a consistent formal system capable of encoding elementary arithmetic there cannot exist any proof of the fact that the system is consistent.

It should be clear that with the first result you cannot have a decision procedure for any interesting body of mathematics, for no matter what a mathematical theory is about, it has to be able to count its objects, in the sense of speaking about two, three, four, etc. of these objects, and therefore, it has to incorporate elementary arithmetic. And if it does, then any formal system encoding it will contain an undecidable statement. However, even with undecidable statements, it seems, on the face of it, that you could still hope for a proof that the formal system is consistent (and consequently that the mathematical theory encoded in this formal system does not have any nasty paradoxes lurking around). But the second result dashes this hope.

So, if we just wanted to tell the story of the demise of Hilbert's grand program, we could stop here. But that would mean robbing ourselves of the really important insights hidden in Gödel's results. It is a well known fact that a proof often proves far more than its end result, the theorem to be proved. Much additional information can be gleaned from the actual procedure of the proof. So, we need to know something about how Gödel proved these theorems. I will not give you the whole proof, it is far too technical and far too long for that. But I will try to present the gist of Gödel's method.

He starts, of course, by setting up his formal system. The alphabet has a small number of constant signs: - (negation), v (or), " (the all quantor, "for all..."), 0 (the individual zero), S (the successor operation), (, and ) (the two parenthesis). Then he has variables of type 1, x1, y1,..., ranging over individuals (natural numbers, 0, S0, SS0, etc.), variables of type 2, x2, y2,..., ranging over classes of individuals, variables of type 3 ranging over classes of classes of individuals, and so on. The set of formulas is a recursively defined subset of the set of finite sequences of symbols, based on so-called elementary formulas of the form u(v), expressing that v is an element of u. His axioms are essentially the Peano axioms P3, P4 and P5 (P1 and P2 are implicitly contained in his informal presentation of the individuals of the system), plus a number of formula schemata, where for each schema the range of each variable is given as, for instance, all formulas, all variables, all formulas where a certain variable is not free, all variables of a given type, etc. Some of these schemata are logical, others are rather set-theoretical, but even these are really unavoidable, saying essentially that it is permissible to form the extension of a formula not having this extension as a free variable, and that a set is completely determined by its elements. The permissible inferences are finite sequences of immediate consequences, these being of the form "from -b v c and b conclude c", or "from a conclude (" x)(a)". (The first one is really modus ponens in truth-functional disguise.) It seems a very meager formal system indeed, barely sufficient for encoding elementary arithmetic.

Now, Gödel assigns natural numbers to all the symbols of the alphabet. That is not very difficult: there are finitely many constant symbols, and countably many types of variable symbols, each type comprising (at most) countably many symbols. But it needs to be done with some care so we do not use up all the numbers, for Gödel needs the rest of them to assign to all formulas, as finite sequences of symbols. Such sequences are assigned the sequence of those natural numbers assigned to each of its symbols To such a sequence n1,n2,...,nk he assigns the number 2n1.3n2....pknk, where pk is the k-th prime numbers. Now he has a unique natural number assigned to each symbol of the system and each finite sequence of such symbols. This means that for instance the wellformed formulas of the system, or its axioms, or its provable theorems, each correspond to a set of natural numbers. But then such metamathematical statements as "p is a theorem" will correspond to arithmetical statements like "#(p) belongs to Thm", where #(p) is the number assigned to the formula p and Thm is the set of numbers corresponding to theorems.

So, Gödel not only encodes arithmetic into a formal system, he also encodes this formal system back into arithmetic, in such a way as to use only individuals, i.e. the natural numbers themselves, so that metamathematical statements translate into arithmetical statements about these numbers, sets of them, etc. Thanks to this translation and an adaptation of Cantor's wellknown diagonal method, Gödel is able to construct a formal statement p encoding an arithmetical statement q saying of the Gödel number of its own formal encoding p, that is #(p), that it is not an element of the set of Gödel numbers of formal theorems. Thus, in a roundabout way, the statement q says of its formal encoding p that it is not a formal theorem. Now, if the statement q is false, p is a formal theorem, and we have a formal system proving false statements, which is very bad indeed: it means the system is inconsistent. So, by reversing the inference, if the system is consistent, the statement q must be true, which means p cannot be proved in the system. But the negation not-p cannot be proved either, for it encodes the arithmetical statement not-q, which is false. So, if the system is consistent, q is a true arithmetical statement, yet undecidable within this system.

(This is a slight simplification. What Gödel actually proves, is that if the system is w -consistent, there is a true, but formally undecidable statement. w -consistent means that if you can prove a statement p(n) for any natural number n, you cannot also prove the statement -(" n)p(n). Now this last statement is not the negation of any one of the presumably proved statements p(n), or any finite conjunction of these, so you might have a consistent formal system which is not w -consistent. But w -consistency is certainly a property we would want almost as fervently as simple consistency from any arithmetically credible formal system. Besides, later work shows that the result can also be proved for simply consistent systems.)

Of course, the actual construction of the formal statement p takes some ingenuity, but we do not need to go into the details here. The main steps are the following: All possible one-place predicates in the system may be ordered in a sequence by their Gödel numbers; let us call the predicate with Gödel number n Rn. We define a set S of natural numbers as the set of natural numbers n such that the statement Rn(n) (the statement saying that the predicate Rn is true of the number n) is not a formal theorem. Now the arithmetical predicate "element of S" is encoded as a one-place predicate in the system, which is identical with some Rq. The formal statement Rq(q) then encodes the arithmetical statement "q is an element of S", which means that Rq(q) is not a formal theorem. There we are!

As for the second theorem, Gödel is able to translate the metamathematical claim that the system is consistent into an arithmetical statement (something like "if n = #(p) and m = #(not-p) then it is not the case that both n and m belongs to Thm"), and to give a formal proof that the formal encoding of this statement formally entails the statement p or Rq(q). So, if we had a formal proof of the formal encoding of the arithmetical translation of the claim that the formal system is consistent, this proof, together with the proof of the mentioned formal entailment and a simple application of the formal encoding of modus ponens, would constitute a proof of p. As we have seen that such a proof is impossible, there can be no formal proof within the system of its own consistency.

For us, the main feature of Gödel's work is the possibility of translating metastatements about the formal system encoding arithmetic back into arithmetic, and the ensuing "formal inexhaustibility" of the elementary notion of arithmetical truth.

3. Turing and the halting problem.

As anyone who has tried to program a computer will know, such programs seem to have an innate propensity for wandering off into infinite loops or veering off in totally unexpected directions, doing strange things we never intended them to do, so that there is no knowing where we will end up, or even if we will end up somewhere at all. Creating programs can be fun, but debugging them, well, it's not my notion of a vacation, it reminds me too much of poor old Sisyphos. Wouldn't it be nice to have a "metaprogram" where we could input our program, and at least be told whether the program will ever end or just go on for ever (until the computer wears down, or the sun goes nova, or some other force majeur intervenes)? Of course, it wouldn't rid us of our debugging chores, but it would sure be a great help.

Such a metaprogram would solve the halting problem. But, alas, Alan Turing proved it impossible, in 1936, long before there were any real computers! How did he do this?

In the following exposition I will use a terminology slightly different from Turing's own.

His paper concerns the computability of real numbers. He envisages a machine capable of being in any of a finite number of different states, and equipped with a "memory tape" divided into consecutive sections or squares, one (and only one) of which is at any time the active square. Each square may be blank or carry a symbol from some given alphabet. For simplicity, we will also count a blank as a symbol. At any time, the symbol in the active square is called the active symbol. The machine is capable of the following elementary actions: changing the active symbol, changing the active square by going one square to the left or to the right, and changing its state. Now, the main thing about what Turing calls an automatic machine is that given a state and an active symbol, the machine will perform a predetermined finite sequence of elementary actions of the first and second kinds, concluding with a change of state (or no such change). Then the next cycle of machine actions is determined by the new state and the new active symbol, and so on. An automatic machine will be called a computing machine if the symbols it can print on the tape are of two kinds, one of which consists only of the two symbols 0 and 1, which are called figures, and symbols of the other kind are the only ones the machine can erase. As a useful convention, we call every second square an F-square, and the alternate ones E-squares, and we stipulate that figures should only be printed on F-squares, and erasable symbols only on E-squares. If the machine never prints more than a finite number of figures, it is called circular, otherwise it is called circle-free.

A computing machine, of course, computes, and what it computes is the sequence of figures it prints on the F-squares. This sequence can be interpreted as binary decimals (or rather "bicimals") of a real number between 0 and 1. A real number is called computable if it differs by an integer from a number (between 0 and 1) computed by some circle-free computing machine. Why do we demand a circle-free machine, i.e. an infinite sequence of "bicimals"? Because a number is not really determined by a finite sequence. Normally we would say that the finite sequence 0 1 determines the number 1/4, but that presupposes a convention saying that any finite sequence should be followed by an infinite sequence of 0's, which we just don't bother to write down. But if a machine gives us a finite sequence and then stops, or goes on moving back and forth and printing E-symbols for ever, we have just a finite sequence, not a finite sequence followed by an infinite sequence of 0's which the machine just doesn't bother to print out. (A machine never bothers or stops bothering about anything anyway; if we say so, it is a case of humanizing the machine, not very fair to the proud species of machines!) So, we don't really have a number.

Now, a very natural question is: Are all real numbers computable? Or, in an equivalent rendering: Is any infinite sequence of figures (0's and 1's) the output of some circle-free computing machine? The answer is no, and the reason is very simple. Any computing machine, in the sense described above, is completely determined by a finite table, showing for each of the finite number of possible states and each of the finite number of possible active symbols the finite sequence of elementary actions to be taken by the machine, ending by indicating the new state. This table can obviously be written as a finite sequence of symbols from a finite alphabet, and by using some kind of "Gödel-numbering" of the symbols, we can ultimately transform this sequence into a finite sequence of 0's and 1's. So each computing machine is completely described by such a finite sequence. Now, all such finite sequences can be enumerated in an infinite sequence of such, thus: 0, 1, 00, 01, 10, 11, 000, 001, 010, 011, 100, etc. Some of these describe circle-free computing machines, and all computing machines are described by some such sequence, therefore the set of all circle-free computing machines, and hence, the set of all computable infinite sequence of figures, is enumerable. But, as Cantor's diagonal argument shows, the set of all (computable or not) infinite sequences of figures is not denumerable:

Suppose it was, and denote the m-th figure of the n-th sequence as r(n,m). Construct a new infinite sequence by letting the n-th figure be 1-r(n,n), i.e. 0 if r(n,n) is 1, and 1 if r(n,n) is 0. This sequence will differ from any of the enumerated sequences in at least one place, so it is not among the enumerated sequences. Thus we have a contradiction, and the premise of the infinite sequences being enumerable must be wrong.

There is something funny here, though. The computable sequences are enumerable, we just proved. Well, let s(n,m) be the m-th figure of the n-th computable sequence, and let the n-th figure of a new infinite sequence be 1-s(n,n). This sequence is not in our list of computable sequences, but, given this list, we can certainly construct a computing machine to compute this new sequence, so it must be computable after all!

The clue to the solution of this apparent paradox is "given this list". We just know that the set of computable sequences is enumerable, we are not given any explicit enumeration. To give such a list is equivalent to be able to decide for any given finite sequence of figures if it is the "description sequence" of a circle-free computing machine, and Turing is able to prove that this is impossible. But first he must construct the "universal computing machine".

I will not give the details of this construction, as they are quite technical, just say that the main idea is to write down the "description sequence" of some computing machine on the E-squares, and letting the machine consult this sequence to find out what to do. Then this machine will compute the same infinite sequence of figures as the machine whose description sequence is written on the E-squares. By replacing this description sequence with another, this same machine will compute a different infinite sequence.

Now, if we could construct a machine D which, given the description sequence of a machine M computes whether M is circle-free or not, we can combine D with the universal machine into a machine V to compute the sequence s(n,n). A finite sequence of figures may be interpreted as a natural number written in the binary system. Let R(n) be the number of description numbers of circle-free machines less than or equal to n. V goes through all natural numbers, lets D test each number n, and if n is the description number of a circle-free machine, puts R(n)=R(n-1)+1, lets this machine compute the R(n)-th figure of its computable sequence, where R(n) is the, pluss 1, writes down this R(n)-th figure, then lets D test n+1, and if n is not the description number of a circle-free machine, puts R(n)=R(n—1), and goes on to n+1.

Each cycle of V's action is finitely accomplishable, and there are infinitely many description numbers of circle-free machines (we can easily construct machines computing the sequences 1000... , 01000..., 001000..., etc.), so V will go on printing figures indefinitely, hence V is circle-free. Let K be the description number of V. Now, what happens as D tests K? Well, since K is, in fact, the description number of a circle-free machine, D cannot conclude it is not. But if D concludes that K is the description number of a circle-free machine, V will set this machine, which is V itself, to compute the first R(K-1)+1 figures of its sequence. So V will repeat all its previous actions, compute the first R(K-1) figures of its sequence, and then let D test K again, giving the same result, which prompts V to repeat its actions again, and so on. Thus V would never print the R(K-1)+1-th figure of its sequence, so it is circular. We have a contradiction, so our assumption about the possibility of D must be wrong.

Of course, as we can clearly see today, computing machines are really computer programs, and the universal computing machine is a template for the general purpose computer. Thus, we have just proved, modulo a few technical details, that the halting problem is unsolvable.

Gödel's true but unprovable statement may seem a bit far-fetched: it was theoretically shocking, yes, but we don't often meet such statements in our daily mathematical practice. But computer programs are our close friends (or enemies, or both), so this undecidability business seems to be getting dangerously close to our daily lives. Where will this end?

4. Gregory Chaitin, the halting probability

and elegant LISP expressions.

We have concluded above that we cannot construct a general procedure for deciding whether any given program will halt or not. But we might still hope for something a little less comprehensive. We still have no general procedure for determining the gap between the n-th and the n+1-th prime, short of checking natural numbers in turn till we have encountered n+1 primes, and as far as I know, such a procedure may well be impossible too. Yet we do have some results on the distribution of primes. So, on the face of it, we might hope to be able to compute at least the overall probability that a program will halt.

On the face of it, it seems fairly simple: A program is just a finite sequence of 0's and 1's. There are exactly 2n such sequences of length n. Just go through all these sequences for each n, run each sequence in a computer, and each time a sequence of length n is a valid program which halts, add 2-n to your overall probability. There are two tiny problems, though. First, this sum would add up to infinity, which is not a very nice number to get for a probability. Second, for how long should you run a program before deciding that it will never halt?

The first problem is solvable, Chaitin tells us it took him 10 years to get it right. As usual, the main idea is quite simple: If a given sequence is a valid program, there is no point in continuing this sequence, because that would really mean starting a new program. So each time you have a program p which halts, and add 2-|p| to the probability (where |p| is the length of p), you ban all extensions of this sequence from ever contributing to the probability. It is fairly easy to show that this restriction means the sum stays below 1 for ever, as a nice behaved probability should.

To solve the second problem would require either a procedure for deciding in finite time whether a given program will halt or not, which Turing proved to be impossible, or a divine intervention, putting an unending sequence of consecutive eternities at our disposal. As there seems to be little hope of that, we have to conclude that this problem is unsolvable.

If the first program (in the sequence of finite sequences) which does halt within the limits of our patience has length n, we may conclude that Chaitin's halting probability is greater than 2-n. If the next has length m, the probability is guaranteed to be greater than 2-n+2-m, etc. The sum is obviously increasing and always keeps below 1, so elementary theory of real numbers tells us that the sum will converge. But for most numbers n, you will never know whether you have pinpointed all halting programs of length n. So the theoretical knowledge that the sum will converge does not help us much in the actual computation of the sum. You will get an increasing sequence of lower limits for this sum, but you cannot really know how close to the goal you have come.

So you cannot compute this number, which Chaitin calls W , from, say, the Peano axioms of natural numbers. You may expand your axiom system, and that might help a bit, but with a finite axiom system you will never be able to decide all the "bicimals" of W . You might as well postulate the values of consecutive bicimals!

Now this halting probability is, after all, a rather strange-looking animal. Why bother to compute it at all? But Chaitin is able to construct an exponential diophantine equation, an algebraic equation where all constants are natural numbers, and where some of the variables may appear in the exponents, such that, if you choose a natural number n as the value of a particular variable, functioning as a parameter, the equation has a finite number of integer solutions if a certain bicimal of W is 0, and an infinite number of integer solutions if that bicimal is 1. Diophantine equations, even exponential ones, definitely belong to the very core of arithmetic. So, even here, you have undecidability, or irreducibility of information or randomness, to use two of Chaitins own phrases.

And there is more. LISP is a programming language especially suited for non-numerical handling of symbolic expressions. By a symbolic expression we mean a list of lists of lists of ... "atoms" and "primitive functions" and "predicates". The elements of a list are (normally) separated by blanks (if they are not enclosed in parentheses, see below), which is important to avoid confusion, since an element may be a sequence of symbols. The lists are enclosed in parentheses, and so an important property of a LISP expression is that the parentheses have to balance. Also, you may "quote" a list by putting ' in front of it. Atoms are, as the name tells us, indivisible. They may be written as a sequence of symbols, but no subsequence of them are valid LISP expressions.

The point of a LISP expression is to "evaluate" it. The "value" of an atom or a primitive function is the atom or primitive function itself, except for the atom nil, whose value is the empty list (). A list is evaluated by first evaluating its first element to determine a "function", then evaluating the other elements to determine the value of the arguments of that function, and then applying the function to these arguments. A quoted list is not to be evaluated, it just appears as an argument for a function or a predicate.

The primitive function car has one argument, which has to be a quoted list, and its value is the first element of the list. Thus, the value of (car ('(a b))) is a. The next primitive function is cdr, which takes a quoted list and returns that list minus its first element. The value of (cdr ('(a b))) is (b). Then we have cons, which joins two lists into one: the value of (cons a (cons b ())) is (a b). The predicate atom has value true if its "argument" is an atom, otherwise the value is false. Likewise, the predicate = has value true if its two arguments are equal, otherwise it returns false. The pseudo-function if first evaluates its first argument, if that value is true, it evaluates its second argument, if that value is false, it evaluates its third argument. The expression (if (= ('(a b c)) ('(a b c))) X Y) evaluates to X, while (if (atom ('(a b c))) X Y) evaluates to Y.

Last there is lambda, used to define other functions. It has two arguments: the first is a list of argument names for the function to be defined, and the second is a description of how this function is supposed to work, using the argument names just given. For instance, (lambda (x y) (cons y (cons x nil))) evaluates to a function making a list of its two arguments in reverse order. If we call this function f, then (f a b) evaluates to (b a).

Of course, there is some more, but this may suffice to give a whiff of what LISP is like. Now, the length of a LISP expression is simply the number of symbols in it. And you may have two different LISP expressions with the same value. Now, we call a LISP expression elegant if there is no shorter LISP expression with the same value. Then we may ask for a proof that a given LISP expression is elegant or not. Well, you may already have guessed: there can be no such proof.

In principle, we can find out, the hard way: we evaluate the given expression, and its length, then we evaluate each of the finitely many shorter valid expressions, and decide whether any of them has the same value as the given one. But the point is, you cannot prove it from some formal axiom system.

Why is that? I won't go into any details: the lack of time gives an excellent excuse for not revealing my lack of knowledge. But the gist of it seems to be something like this: Your formal axiom system, with its axioms and inference rules, can be encoded into a large LISP expression. You have to use a few extra characters to wrap the encoded axiom system properly, but it turns out that 410 extra characters always suffice. Now this expression takes the given encoded axiom system, calculates its length, adds 410, thus obtaining its own length. Then it runs the axiom system searching for an elegant expression longer than itself. When it finds such an expression, it evaluates it and returns its value as its own. But the expression it found was supposed to be elegant, yet the shorter expression that found it has the same value. So we have a contradiction. Therefore, the large LISP expression won't return any value, or, if it does, the encoded axiom system must be inconsistent! An axiom system of length N cannot prove that any LISP expression longer than N+410 is elegant.

Chaitin has many other related "randomness" results, but these will suffice as an illustration of the general trend.

5. What to make of it.

Enough playing around, back to some hard philosophical work! We have to investigate what, if any, philosophical conclusions to draw from all this undecidability, irreducibillity and randomness. First, let us see what Chaitin himself makes of it.

Accordin to Chaitin, we can already see (in the work of Gödel, Turing and himself) "the beginning of a new kind of mathematics, a very different kind of mathematics, one that is more complicated, one that is in a way more like biology". Why? Because the new mathematical objects, such as "a workable formal axiomatic system, Turing's universal machine, a LISP interpreter" are "very strange kinds of mathematical objects, completely different from traditional mathematical objects", such as "the primes, the Riemann zeta function". These new objects are "so complicated". Chaitin does not believe "there should be an abrupt discontinuity between how mathematicians work and mathematical physicists work - it should be a continuum of possibilities. No proof is totally convincing. There are just differing degrees of credibility." (These citations are from The Unknowable, pages 104-107.)

Well, where have we heard this before? Right, this is Quine's holism, mathematical edition. Chaitin hurries to say that of course there are differences between mathematics and physics: "math is quasi-empirical and physics is empirical". For instance, "phycisists know that no equation is exact (...) that all equations are approximate, so they prefer short, robust, unrigorous proofs that are stable under perturbations, to long, fragile, rigorous proofs that are not stable under perturbations (but that are perfectly okay in pure mathematics)", (same book, note 9, page 106). It would seem to be implied that (all, most or some) mathematicians do not have this marvelous insight.

But there is hope: "Now everything has gone topsy-turvy. It's gone topsy-turvy, not because of any philosophical argument, not because of Gödel's results or Turiing's results or my own incompleteness results. It's gone topsy-turvy for a very simple reason - the computer! The computer as you all know has changed the way we do everything. (...) The computer has so vastly increased mathematical experience, that in order to cope, (...) mathematicians are proceeding more pragmatically, more like experimental scientists do. This new tendency is often called "experimental mathematics". This phrase comes up a lot in the field of chaos, fractals and nonlinear dynamics." (The Limits of Mathematics, page 25)

To sum up, the avalanche of incompleteness results Gödel started in 1931 really ought to have convinced mathematicians that their science is quasi-empirical, that they should proceed more like experimental scientists, but it didn't. The lofty mathematicians (who by the way "don't have a sense of humour") were by and large unimpressed. But fortunately, they are now being seduced by the computer into doing things more pragmatically. Of course, if you can find a proof, that's fine, especially if the proof is short. But sometimes you can't, so you "go ahead with working hypotheses on the basis of the results of computer experiments". (page 26)

My attitude to Quine's holism is hardly any secret, at least I strongly suspect it won't be after tomorrow. Frankly, I consider it as Kant considers the inclusion of psychological, metaphysical and antropological "chapters" into logic: "Es ist nicht Vermehrung, sondern Verunstaltung der Wissenschaften, wenn man ihre Grenzen ineinander laufen läßt." (B VIII) Not that the sciences are isolated islands; they are rather, though complete within their own borders, incorporated as parts of the total system of human knowledge.

In a way, Chaitin is right: The computer has, among other things, led to more experimentation in mathematics. In fact I myself as a young assistant teacher (way back in the Pre-Kambrium, or so it seems) tried my hand at enumerating and classifying subgroups of a permutation group by computer. Only, the computers then were slow and cumbersome, so after a while I gave up. But this tendency of more experimentation is just that: a shift of emphasis, not some brand new element. Mathematics has always been experimental. It is constantly shifting back and forth between surmising a possible result and trying to prove it, it is constantly performing "thought experiments". Of course, a physicist does physical experiments as well, but the structure and spirit is the same: "let's see what happens if ...". In fact, you could say that mathematics was an experimental science long before physics became one! It is, I think, this structural similarity that misled Chaitin (and many others) into believing that the difference is only a difference in "degrees of credibility". So, what is the difference? First, while physics ultimately refers to empirical intuition, mathematics refers to pure intuition. In a way, you could say that the two sciences do the same thing, but in different arenas! But because of this difference what they do also must be somewhat different: they both experimentate, but the results are justified in different ways: physical results are justified because what they say really happens, mathematical results are justified by being demonstrated. Somehow I cannot believe that Chaitin, with all his experimental attitude, would have condoned the behavior of the bloke who, because a computer set to calculate digits of ¹ started spitting out millions of 0's, concluded that ¹ is rational. Or that he would have justified the impossibility of proving that a LISP expression is elegant by his own inability to find such a proof. No, he had to prove this impossibility.

But let's get back to arithmetic. We saw that Kant's claim that arithmetic has no axioms, only practical postulates ensuring the possibility of certain patterns of discrete successive synthesis, was connected to the "individuality" of numbers: arithmetical results are not general statements demonstrated from axioms immediately "seen" to be true, they are singular statements concerning individual numbers, obtained by applying the pattern of synthesis declared possible by some postulate, to those individual numbers.

Then, some 150 years later, Gödel comes along, telling us that not all true arithmetical statements can be formally proved from some suitably interpreted formal axiom system. 5 years later Turing shows that we cannot always decide mechanically whether a given mechanical computational procedure is "circular" or "circle-free". And now Chaitin tells us that we cannot know whether any particular bicimal of his strange halting probability is 0 or 1, and that we cannot always decide formally whether a LISP expression is elegant. All very nice and ingeneous algebraic results, which, again according to Chaitin, seem to tell us that "reasoning" (in the guise of formal symbolic computation) is of rather limited value when it comes to getting at "hard" "factual" arithmetical information about most numbers. Surprising, yes. But are they really surprising to the degree of devastating "mathematics as usual", forcing us to admit that it is really "quasi-empirical" (whatever that "quasi" term may mean)? No. If Kant could hear Chaitin say that some arithmetical truths "are true for no reason, they're true by accident!" (Exploring Randomness, page 23), he could simply answer: "Well, of course you can't deduce all arithmetical truths from some axiom system, numbers are individuals and truths about them are individual truths, and far too many to be encompassed by any finite axiom system. I told you arithmetic had no axioms! But that does not mean that these truths are contingent, they are synthetic a priori, and they are true because of the structure of the relevant constructions in pure intuition. A number can be determined in many ways, and I see you have thought up some ways I never dreamed about. Congratulations! But it only confirms my philosophy of arithmetics."

Thus, I tend to agree with Jon Barwise in his review of The Limits of Mathematics: "I find Chaitin's results on W quite interesting, but Chaitin gives no hint as to what kind of fact about W one might discover by empirical observation, or how one might go about discovering it. Consequently, I am at a loss to see that the results on W have any real bearing (beyond those of Gödel and Turing) on the nature of mathematics." (Philosophia Mathematica, vol.7(1999), page 240). As far as the philosophy of mathematics is concerned, Gödel, Turing and Chaitin just show that mathematics is not finitely formalizable, which is no great surprise given a Kantian approach.

Tilbake til norsk hovedside

Back to English main page

Nyere diskusjon om matematiske objekters

ontologiske status.

Sammendrag: Etter litt historisk bakgrunn og omtale av noen eldre oppfatninger, tar jeg for meg Paul Benacerrafs berømte "utfordring", Hartry Fields nominalisme, Bob Hales forsvar for Platonismen og Michael Resniks empiristiske strukturalisme. Jeg avslutter med en spiritistisk seanse hvor Kant får komme til orde med korte kommentarer til sine etterkommere.

1. Bakgrunn.

Noen av ordene i språket vårt er substantiver. Deres funksjon er i utgangspunktet å henvise til en gjenstand. Noen substantiver henviser til konkrete observerbare fysiske gjenstander, som "stol", "tre", "hus" osv. Men hva med ord som "Gud", "moral", "rettferdighet", "samfunn", "stat", "tanke"? Rent grammatisk er disse ordene også substantiver, men hva slags gjenstander henviser de til? Det synes iallfall klart at de ikke refererer til vanlige fysiske gjenstander. Så enten må vi anta andre typer gjenstander enn de fysiske, eller vi må avvise at disse ordene i det hele tatt refererer til gjenstander. Men hvilken funksjon har de da?

Opp gjennom filosofihistorien har det vært stadig diskusjon om hvordan man skal behandle slike ord. Det har vært mange ulike oppfatninger, men grovt sett kan vi dele dem inn i to hovedgrupper: Realistene hevder at det finnes gjenstander som slike ord refererer til, og at ordene dermed har samme funksjon som andre substantiver. Nominalistene hevder at disse ordene ikke refererer til "virkelige" gjenstander, men er meningsløse eller uttrykk for fantasier eller utfører andre funksjoner i den språklige konteksten enn den tilsynelatende objektreferansen (de er bare navn (nomen på latin) som ikke betegner noe reelt). Selvfølgelig går det fint an å være realist med hensyn på noen klasser av slike substantiver og nominalist med hensyn på andre.

Også matematiske påstander handler tilsynelatende om "objekter". Vi snakker om tall (i ulike varianter), punkter, linjer, sirkler, funksjoner, mengder, mangfoldigheter, topologiske rom, kategorier osv. Men disse "objektene" kan ikke identifiseres med fysiske gjenstander, så mye er det bred enighet om. Vi kan ha 17 runde tallerkener i skapet, men ingen av dem er en sirkel, og heller ikke er hele stabelen tallet 17 (heldigvis, for hva skulle vi gjøre hvis sirkelen og tallet 17 gikk i gulvet og ble knust?). Men hvis matematiske "objekter" ikke er vanlige fysiske sansbare gjenstander, hva er de da? Hvis vi tror på at det i en eller annen forstand "finnes" slike objekter, hvordan skal vi begrunne denne vår tro? Og om vi ikke tror på dette, hvordan skal vi da forklare disse "navnenes" tilstedeværelse i matematikken? Hva handler matematikken om, hvis matematiske "objekter" ikke finnes?

Igjen finner vi en stadig debatt mellom ulike former og grader av realisme og nominalisme. Realisme på dette området kalles også ofte Platonisme, med henvisning til Platons idélære. Frege kan på mange måter sies å starte den moderne fasen av matematikkfilosofiens historie med sitt forsøk på å tilbakeføre naturlige tall (dvs. tallene 0, 1, 2, 3, osv.) og operasjoner på disse (for eksempel addisjon og multiplikasjon) til hva han oppfattet som rent logiske begreper og operasjoner. Kort fortalt definerer han et naturlig tall n som ekstensjonen av det annen-ordens begrepet "begrep som er liketallig med begrepet Fn", hvor Fn er et spesielt begrep som har eksakt n instanser, og to begreper er liketallige hvis objektene som faller inn under det ene begrepet kan settes i en-til-en-korrespondanse med objektene som faller inn under det andre. F.eks. er 0 ekstensjonen av det annen-ordens begrepet "begrep som er liketallig med begrepet "ting som ikke er lik seg selv"". Som kjent er denne bruken av begrepers ekstensjon noe for løssluppen, og leder til Russells paradoks. Men det ontologiske hovedpoenget, at naturlige tall oppfattes som begrepers ekstensjon eller mengder, får vi stadig presentert i lærebøker. Den vanligste versjonen er å sette 0 lik den tomme mengden, 1 lik mengden av den tomme mengden, 2 lik mengden av den tomme mengden og mengden av den tomme mengden, osv. Med symboler: 0=Ø, 1={Ø}, 2={Ø,{Ø}}, 3={Ø,{Ø},{Ø,{Ø}}}, osv.

Med en slik tilbakeføring kan man være realist med hensyn på naturlige tall i samme grad som man kan være det med hensyn på mengder. Men paradoksene og andre merkverdigheter i mengdelæren gjør det en smule vanskelig å være helhjertet realist med hensyn på mengder. Og selv om man mener å kunne forsvare en realistisk oppfatning av mengder (som Gödel), virker selve tilbakeføringen både uhensiktsmessig (den gjør det ikke klarere for oss hva vi "egentlig" mener med tallene) og tilfeldig. Det siste poenget griper Benacerraf fatt i i sin artikkel "What numbers could not be" (1965). Han forteller en livlig historie om to personer med en noe uvanlig matematisk utdannelse: de starter med en grundig opplæring i mengdelære, hvorpå de får vite hvilke mengder og mengdeoperasjoner folk "egentlig" mener når de snakker om tall, addisjon, multiplikasjon, osv. Etter denne utdannelsen kan de kommunisere knirkefritt om vanlige aritmetiske utsagn både med hverandre og med vanlig utdannede mennesker. Men så sier den ene at 3 er en delmengde av 17, og den andre er dypt uenig. Det viser seg at den ene har brukt definisjonene vi anga ovenfor, og da er 3 unektelig en delmengde av 17, mens den andre har brukt definisjonene 0=Ø, 1={Ø}, 2={{Ø}}, 3={{{Ø}}}, osv., og da er 3 like unektelig ikke en delmengde av 17. Dette viser tydelig at tilbakeføringen bare gir en (av mange mulige) mengdeteoretiske modeller av de naturlige tall, og da blir den ontologiske identifikasjonen av tallene med en av disse modellene meget tvilsom. Tallene kan, ifølge Benacerraf, ikke være noen type objekter, for enhver følge av "objekter" hvor hvert objekt utpeker sin "etterfølger", kan gjøre jobben som tall.

Ikke alle tar direkte stilling for eller imot realisme eller nominalisme. Carnap avviser hele problemstillingen som "ekstern" i forhold til "systemet av hele tall", et av de mange språklige "subsystemene" han forestiller seg. Hvert slikt subsystem inneholder et sett karakteristiske termer og regler for riktig anvendelse av disse termene. Innenfor f.eks. det vitenskapelige subsystem kan vi stille meningsfulle spørsmål, som vi forhåpentligvis kan finne svarene på. Slike spørsmål kaller han "interne". Hvis vi oppfatter spørsmålet om hvorvidt det finnes tall som internt i systemet av tall, er svaret ja, og dette svaret er analytisk og temmelig trivielt. Spør vi, fortsatt internt, om det finnes primtall større enn en million, er svaret på dette også analytisk, men mindre trivielt. Men spør vi om det "egentlig" finnes tall, og mener spørsmålet eksternt, f.eks. slik at vi vil vite om det finnes slike objekter før vi er villige til å innføre det tilsvarende språksystemet, er spørsmålet meningsløst, medmindre det er ment som et praktisk spørsmål om hvorvidt det er lurt, nyttig, effektivt med hensyn på en eller annen målsetting, å innføre dette systemet.

Videre kan vi kort nevne at formalistene (med Hilbert i spissen) kan sies å forsøke å redusere de ontologiske fordringene til å gjelde enkle kombinatoriske symbolkonstellasjoner, mens resten av ontologien erstattes av syntaks for slike konstellasjoner (ikke helt ulikt Carnap). Jfr. Hilberts kontekstuelle "definisjoner" av geometriske begreper, som Frege kritiserte svært inngående, og Currys karakterisering av matematikken som "vitenskapen om formale systemer". Intuisjonistene derimot (med Brouwer som foregangsmann), synes å forankre matematiske objekters eksistens i deres påviste konstruerbarhet. De får dermed en noe innsnevret ontologi i forhold til klassisk Platonisme, blant annet vil de ikke godta eksistensbevis basert på apagogisk argumentasjon.

Disse eldre oppfatningene kan tjene som bakgrunn for den nyere diskusjon vi nå skal ta for oss.

2. Benacerrafs utfordring.

Mye av den moderne matematikkfilosofiske debatt (av metafysisk, ikke-teknisk karakter) refererer direkte eller indirekte til Paul Benacerrafs viktige artikkel Mathematical Truth, som kom i 1973, noen år etter What numbers could not be. Artikkelen går ofte under navnet Benacerraf's challenge, derav min overskrift, og det med rette. Utfordringen består kort sagt i et krav om at ontologi og epistemologi må stemme overens. I dette avsnittet skal jeg kort skissere hva dette betyr for diskusjonen mellom realisme og nominalisme.

Vi har, ifølge Benacerraf, to fundamentale spørsmål angående matematiske påstander: 1) Hva er betingelsene for at påstanden er sann? og 2) Hvordan kan vi vite at påstanden er sann, dvs. at disse betingelsene er oppfylt? Av en adekvat redegjørelse for matematisk erkjennelse krever han at svaret på det første spørsmålet skal være slik at vi ut fra en allmenn teori om hva sannhet er skal kunne innse at de angitte betingelser virkelig sikrer påstandens sannhet, og at svaret på det andre spørsmålet skal være slik at vi ut fra en allmenn teori om våre erkjennelsesmuligheter kan innse muligheten av matematisk erkjennelse. Dette synes å være rimelige krav om vi ønsker en semantikk og en epistemologi som hver for seg er noenlunde enhetlige og også henger sammen innbyrdes.

Men de to kravene sammen utelukker ifølge Benacerraf de fleste av de redegjørelser for matematisk erkjennelse som vi har. La oss først ta for oss en klassisk Platonsk realisme. Her er f.eks. tallene objekter, og den samme semantikk vil gjelde for påstander om tall som for påstander om fysiske objekter. Det betyr at sannhetsbetingelsene for påstanden "Det fins et primtall som er større enn 100" er de samme som for påstanden "Det fins en by som er større enn Oslo". Hver av påstandene er sann hvis det eksisterer minst et objekt av den angitte art (primtall, byer) som oppfyller påstandens krav (større enn 100, større enn Oslo). Det vil si at en referensiell sannhetsteori à la Tarski er brukbar i begge tilfeller, så det første kravet ovenfor er oppfylt. Det andre kravet er det verre med. For vår best utbygde epistemologi er, igjen ifølge Benacerraf, den vi har utviklet for erkjennelse om fysiske gjenstander, og som sier, i meget grove trekk, at vi kan vite noe om en gjenstand hvis gjenstanden kan inngå i en direkte eller indirekte kausal forbindelse til våre sanseorganer. Men det synes vanskelig å påstå at f.eks. tallene, som "objekter", påvirker oss kausalt. Vi kan naturligvis, som Gödel, postulere en egen "sans" for matematiske objekter, men da etablerer vi en separat matematikkepistemologi som iallfall i utgangspunktet er vanskelig å samordne med den vanlige kausale epistemologi for fysiske gjenstander under en altomfattende sammenhengende epistemologi.

På den annen side kan vi tenke oss en formalist som sier at matematisk sannhet er bevisbarhet i et formalt system. Da blir det relativt enkelt å forstå hvordan vi kan få rede på slike "sannheter". Det eneste vi må gjøre rede for er vår evne til å produsere og holde orden på formale systemer og beviser i disse, altså systemer av endelige symbolsekvenser og entydige regler for transformasjon av slike. Dette synes å være innen rekkevidde for en vanlig kausal epistemologi. Men vi har ingen annen allmenn sannhetsteori enn Tarskis (ifølge Benacerraf), og det er på ingen måte opplagt at betingelsen om formal bevisbarhet er en betingelse for sannhet à la Tarski, vi kan jo bare tenke på Gödels ufullstendighetsteorem.

Når man er så dum at man erklærer alle eksisterende forslag til matematikkfilosofi for ubrukelige, får man naturligvis alle disse forslagenes tilhengere på nakken. Vi skal se på noen av reaksjonene på Benacerrafs utfordring.

3. Forsvar for nominalismen.

Ut fra mottoet "angrep er det beste forsvar" går Hartry Field i Realism, Mathematics and Modality inn for å styrke Benacerrafs utfordring, selvsagt på den siden som vender seg mot realismen. Benacerrafs argumentasjon bygger som vi har sett på et ønske om en overordnet erkjennelsesteori av kausal karakter: Siden matematiske objekter vanskelig kan sies å påvirke oss kausalt, er det problematisk, med en slik erkjennelsesteori, å innse hvordan vi kan ha kunnskap om disse objektene. Field ønsker å presentere en argumentasjon mot realismen som ikke baserer seg på en slik forutsetning:

"den avhenger ikke av noen antagelse om nødvendige og tilstrekkelige betingelser for erkjennelse. I stedet avhenger den av idéen om at vi bør betrakte med mistenksomhet ethvert krav på å kjenne fakta om et område hvis vi tror det er umulig å forklare påliteligheten av våre antagelser om dette området." (min oversettelse)

Field mener at realisten, for å kunne opprettholde sitt syn, må akseptere at følgende holder for de fleste matematiske påstander p:

(1) Hvis matematikerne aksepterer p, så p.

Med andre ord, realisten må anta at kompetente personers matematiske antagelser stort sett er pålitelige. Nå er jo dette i seg selv et faktum som krever en forklaring, og denne forklaringen mener Field at realisten ikke er i stand til å gi. For ifølge realisten er matematiske objekter ikke bare akausale, de er også uten enhver rom- eller tids-relasjon til noe som helst, de er uavhengige av språklige uttrykk, og uavhengige av at vi tenker på dem, osv. Kort sagt, de er utenfor enhver sammenheng med oss mennesker som skulle kunne tjene som bakgrunn for en forklaring på hvorfor våre matematiske antagelser stort sett gjenspeiler denne Platonske "virkelighet".

Nå mener Field at realisten faktisk kan komme et stykke på vei med å forklare denne overensstemmelsen. På grunn av matematikkens aksiomatiske, deduktive karakter vil påstanden ovenfor kunne begrunnes om vi kan forklare følgende mer begrensede regularitet: For de fleste matematiske påstander p gjelder:

(2) Hvis matematikerne aksepterer p som et aksiom, så p.

Med andre ord, det som kompetente personer er villige til å godta som matematiske aksiomer, er stort sett sant. Av dette følger at de fleste instanser av

(3) Hvis matematikerne aksepterer p som et aksiom, så er p logisk konsistent med alt annet de godtar som aksiomer.

også holder. Og denne siste regulariteten mener Field vi kan gi en forholdsvis akseptabel induktiv forklaring på. For i tidens løp har matematikerne selv luket vekk mange inkonsistenser. Vi tror at moderne mengdelære er konsistent fordi vi mener at hvis den ikke var det, ville en eller annen ha oppdaget en inkonsistens i løpet av noen tiårs intens forskning.

Field er altså villig til å godta (3). Målet for realisten er å forklare (1). Det kan hun ifølge Field gjøre hvis hun kan forklare (2). Nå følger (3) av (2), men vi kan ikke uten videre slutte den andre veien. Realistens problem er etter dette synet å komme over fra (3) til (2). Og dette er da Fields utfordring til realisten.

4. Men Platonismen var ikke død.

Bob Hale tar hansken opp i artikkelen Is Platonism Epistemologically Bankrupt? Først forkaster han følgende lettvinte løsning på problemet: At et aksiomsystem er konsistent betyr, i den modallogiske tolkning som Field satser på, at det er mulig at aksiomene er sanne. Men da må vi ut fra (3) kunne si at

(4) For de fleste p gjelder at hvis matematikerne aksepterer p som et aksiom, er det mulig at p.

Men matematiske påstander er nødvendig sanne hvis de er sanne. Derfor må vi enten ha at det er nødvendig at p eller at det er umulig at p. Så hvis p er mulig, er p nødvendig, og av at det er nødvendig at p, følger p. Av (4) pluss dette siste resonnementet følger (2).

Dette må forkastes, først og fremst fordi man kan godta den induktive forklaringen på (3) med konsistens forstått som syntaktisk eller formal konsistens, og likevel tvile på at de fleste p vi aksepterer som aksiomer er mulig sanne. Dermed kommer vi ikke til (4), og følgelig heller ikke til (2).

Derimot mener Hale at realisten kan gjøre bedre bruk av Fields innrømmelse av at deduksjon generelt er sannhetsbevarende (overgangen fra (2) til (1)). Dette innebærer nemlig at våre oppfatninger om hva som følger logisk av hva stort sett er riktige. Hvis man insisterer på at selv slike logiske oppfatninger bare er kontingent sanne hvis de er sanne, (dvs. ikke nødvendig sanne), kan realisten ikke forventes å gjøre annet enn å riste på hodet over motstanderens stahet. Men om man innrømmer muligheten av at noen logiske erkjennelser er nødvendige, kan ingen nekte realisten å hevde at noen matematiske erkjennelser også er nødvendige (med eller uten en logisistisk tese om reduksjon av matematikk til logikk). For da må man i alle fall søke en epistemologi som kan forklare nødvendig erkjennelse, noe Hale innrømmer at man fremdeles ikke har, og realisten kan si at "en forklaring på vår tendens til å danne sanne matematiske oppfatninger kan følge essensielt de samme linjer som en forklaring på vår tendens til å komme fram til sanne oppfatninger om andre nødvendige saksforhold, slik som logiske avledningsforhold" (min oversettelse).

Hale mener selvsagt ikke at realisten dermed har gjort hele jobben sin. For det første gjenstår det å formulere en epistemologi som kan forklare ikke bare kontingent (empirisk), men også nødvendig (a priori) erkjennelse. Men at det kan være mulig, mener Hale er nokså plausibelt, "fordi det kan argumenteres for at samtykke i visse logiske sannheter er en nødvendig betingelse for å gripe de logiske begreper de [logiske sannheter] framviser, slik at det ikke kan være noen mulig verden hvor vi stadig tok feil av dem" (min oversettelse). Ut over dette bør realisten også presentere en rimelig begrunnelse av at matematisk erkjennelse også er nødvendig, og redegjøre for likheter og forskjeller i forhold til logisk erkjennelse. Så lenge dette ikke er gjort kan man ikke rette spesifikk kritikk mot denne realismeversjonen, simpelthen fordi denne realismeversjonen selv ikke er spesifikk nok. Men Hale tar opp noen generelle innvendinger som ikke avhenger av en slik spesifisering.

Field godtar som sagt logiske fakta som nødvendige, men frakjenner matematiske fakta denne status. De er riktignok matematisk nødvendige, "de følger av matematikkens grunnleggende lover". Men på samme måte kunne vi si at elektronets eksistens er fysisk nødvendig, dvs. følger av grunnleggende fysiske lover. Hvis vi ikke godtar slike "fysiske nødvendigheter" som nødvendige (i absolutt, ukvalifisert forstand), hvorfor skulle vi gi matematiske nødvendigheter en slik forrang?

Det er klart at hvis matematiske nødvendigheter bare er nødvendige relativt til matematikkens egne grunnleggende lover, stiller realisten svakt. Men hva er grunnen til at Field innrømmer logiske fakta en absolutt nødvendighet, i motsetning til de matematiske? Ifølge Hale har det sammenheng med at logikken i motsetning til matematikken ikke kommer med eksistensutsagn, etter Fields oppfatning. Og Field vil ikke godta noe eksistensutsagn som absolutt nødvendig, for om vi gir etter her, er vi f.eks. forsvarsløse overfor det ontologiske Gudsbevis (jfr. Kants velkjente kritikk av dette beviset). Vi ville risikere at vårt ontologiske univers ville bli aldeles overbefolket av allehånde nødvendigheter!

Men hvorfor skulle vi ikke kunne forkaste Gudsbeviset uten dermed å benekte muligheten av nødvendige eksistensutsagn. Kants kritikk av Gudsbeviset gikk ut på at eksistens ikke kan være et begrepskjennetegn. Men det finnes ingen matematisk definisjon av tallet 2 med eksistens som et av kjennetegnene (eksistens er i det hele tatt ikke noe matematisk begrep). Det som finnes er sanne utsagn hvori det inngår singulære termer som refererer til tall, hvis de overhodet har referanse. Godtar vi slike utsagn som nødvendige, med vanlig semantikk, følger nødvendige eksistensutsagn av det, uten at vi har begått samme tabben som i Gudsbeviset.

Hvordan kan vi nå begrunne nødvendigheten av slike utsagn? Hale antyder muligheten for å bruke Freges definisjoner, ikke som definisjoner av tallene, men som skjemaer for antagelser om antall av objekter av den og den type i en mulig verden. Det burde gå an å argumentere for at det i enhver mulig verden må være en identitetsrelasjon mellom objekter: x=y hvis og bare hvis x og y er samme objekt. Antallet objekter x slik at x¹ x, dvs. slik at x ikke er det samme som seg selv, kan nå bestemmes som 0. Dette kardinaltallet må da sies å eksistere i enhver mulig verden, uansett hva denne verdenen måtte inneholde eller ikke inneholde av objekter og predikater. Men da kan antallet objekter x slik at x=0 bestemmes som 1, så kardinaltallet 1 må også eksistere. Antallet objekter x slik at x=0 eller x=1 kan deretter bestemmes som 2, osv. Dette skulle gi oss eksistens av naturlige tall i alle mulige verdener, altså nødvendig eksistens av naturlige tall (ut fra "mulig-verden-tolkningen" av nødvendighet).

Hale hevder ikke at dette argumentet i seg selv viser at realisten har rett, bare at det svekker kraften i Fields motargumenter, slik at det fortsatt er mulig at en eller annen versjon av Platonismen er liv laga.

Disse to smakebitene fra debatten i kjølvannet av Benacerrafs utfordring får holde. I en artikkel fra 1991 antyder Penelope Maddy at det er på tide å komme videre. Hun mener å kunne spore en slags "meta-enighet" om at det er mulig bevare standard matematikk tross Benacerrafs dilemma ved hjelp av litt ontologisk triksing, en meta-enighet som naturligvis overskygges av en heftig og begeistret uenighet om akkurat hva slags og hvor mye ontologisk triksing som skal til. Til og med Field kommer inn under denne meta-enigheten, hevder hun, for selv om hans ontologiske triksing må sies å være ganske ekstrem, mener han jo å kunne bevare standard matematikk som en meningsfull beskjeftigelse, bare at den ikke handler om en spesiell sort mer eller mindre utilgjengelige matematiske objekter, men om begrepsmessige konstruksjoner på basis av visse perseptuelt tilgjengelige strukturer i den fysiske verden. Jeg tror Maddy kan ha mye rett i denne karakteristikken av situasjonen ved starten av 90-tallet.

Allerede på 50- og 60-tallet hadde Quine framsatt klart empiristiske oppfatninger av matematikkfilosofien. Han var langt fra den første: jeg fikk et lite sjokk da jeg oppdaget at Russell i 1924 sa at logikk og matematikk i likhet med Maxwells elektrodynamiske ligninger "blir trodd på grunn av den observerte sannhet av noen av deres logiske konsekvenser"; det stemte liksom ikke helt med standardbildet av Russell som logiker og "grunnlagsmatematiker". Allikevel er det i det vesentlige Quines fortjeneste eller skyld, alt ettersom man ser det, at empirismen også i matematikkfilosofien langsomt ble stueren, etter at Freges bitende kritikk av Mills naive utgave tilsynelatende hadde forvist den til det ytterste mørke. Men filosofiske trender er treg materie, så det var etter min mening først sent på 80-tallet og tidlig på 90-tallet at empirismen ble det selvfølgelige altdominerende rammeverk for matematikkfilosofiske oppfatninger som ble ansett som verd å diskutere. Tymoczkos berømte artikkelsamling fra 1986 kan være en passende markør for begynnelsen av overgangen.

Alle de før omtalte oppfatninger, unntatt Freges og kanskje Hales, har åpning mot empirismen. Likevel er det naturlig å avslutte denne nødvendigvis meget overfladiske og springende framstilling av den "matematikkontologiske" diskusjon med en omtale av en eksplisitt erklært empirist. Mitt valg falt på Michael Resnik.

5. Resniks empiristiske strukturalisme.

Michael Resnik karakteriserer sin posisjon som "realisme, empirisme og strukturalisme", og sier selv at Quines holisme har hatt stor betydning for ham. Hans realisme innebærer "at matematiske objekter eksisterer uavhengig av oss og våre konstruksjoner, at mye av vår tids matematikk er sann, og at matematiske sannheter holder uavhengig av våre antagelser, teorier og beviser" (min oversettelse, Mathematics as a Science of Patterns, side 4). Hvordan eksisterer så disse objektene? Jo, de er "egenskapsløse, abstrakte posisjoner i strukturer (eller mer billedlig [suggestively], mønstre); mine paradigmatiske matematiske objekter er geometriske punkter, hvis identitet bestemmes bare gjennom deres relasjon til hverandre" (side 4-5). Objektene i seg selv er uinteressante og fullstendig utskiftbare, de bare "settes" [are posited] som en slags absolutte enheter, det interessante er deres innbyrdes relasjoner i mønsteret eller strukturen. Noen av relasjonene kan være unære, hvilket innebærer en utpeking av "spesielle posisjoner", som 0 i følgen av naturlige tall. Men disse utpekte posisjonene har sine spesielle egenskaper ikke i seg selv, bare i relasjon til de andre, slik 0 i Peano-aksiomene karakteriseres ved at det ikke er "etterfølger" til noe annet tall. (Dette kan minne om Cantors "lauter Einsen" som betegnelse på elementene i en abstrakt mengde, jfr. Lawvere i Philosophia Mathematica, og min tillegsavhandling Konstruksjonstyper …, kapittel 6. En abstrakt mengde må vel være det "minimale mønster" med hensyn på sine elementer.)

To strukturer eller mønstre er kongruente hvis vi kan bytte ut posisjoner og relasjoner i det ene mønsteret med "tilsvarende" posisjoner og relasjoner i det andre, og få "det samme". For eksempel vil de to mengdeteoretiske "modellene" av de naturlige tall som vi nevnte i begynnelsen av forelesningen være kongruente mønstre, så lenge vi bare ser på etterfølgerrelasjonen og ikke elementrelasjonen. Kongruens kan gjelde mellom abstrakte mønstre, mellom mønstre av mer konkrete "objekter", og mellom mønstre av disse to typene. Tre epler arrangert som hjørner i en likesidet trekant er et konkret mønster kongruent med tilsvarende arrangement av pærer, og begge er kongruente med det abstrakte geometriske mønster "hjørner i en likesidet trekant".

Et mønster kan forekomme i et annet: "Jeg anser den naturlige tallfølgen for å forekomme i de reelle tall med sin naturlige orden, i det iterative mengdehierarki, og i seg selv." (side 205). Jeg går ut fra at det første eksemplet er opplagt for de fleste, det er kanskje lettest å se i den geometriske realiseringen som mønsteret av en uendelig rekke ekvidistante punkter på en rett linje, inneholdt i mønsteret av alle punkter på linjen, med sin venstre-høyre-relasjon. Det iterative mengdehierarki er kanskje ikke like velkjent for alle. I den enkleste utgaven har man en klasse av uspesifiserte objekter som utgangspunkt. Så har man mengder av slike objekter, på første nivå, mengder av mengder av objekter, på annet nivå, osv. Det er opplagt at denne mengdestrukturen "inneholder" en "nivåstruktur" hvor hvert nivå har et etterfølgende nivå, objektnivået ikke er etterfølgeren til noe annet nivå, osv. Denne nivåstrukturen er klart kongruent med strukturen av de naturlige tall. Endelig kan vi se at strukturen av de naturlige tall "inneholder seg selv" ved å se på partallene, 0, 2, 4, 6, osv. Hvert partall har et etterfølgende partall, 0 er ikke etterfølger til et annet partall, osv. Et par litt mer subtile eksempler for de litt mer matematisk sofistikerte: De rasjonale tall som kropp inneholder en forekomst av de naturlige tall med sin etterfølgerstruktur, men de rasjonale tall som tellbar tett ordning (tellbar mengde med ikke-refleksiv, ikke-kommutativ, transitiv relasjon <, slik at for alle a<b finnes en c slik at a<c<b) gjør det ikke, fordi 0 og etterfølgerrelasjon ikke kan defineres i denne strukturen.

Vi legger merke til at Resnik ikke bruker kongruensrelasjonen til å definere abstrakte mønstre som kongruensklasser av "forekomster". Dette er helt bevisst, for en slik fremgangsmåte ville kreve en forutgående ontologi med plass til konkrete forekomster av alle tenkelige abstrakte mønstre, og en slik ontologi ville overskride alle rimelige begrensninger på klassen av ikke-matematiske objekter. Vi ville da måtte innføre strukturer av matematiske objekter som instanser av mer kompliserte matematiske strukturer. Men det ville bety å "sette" [posit] (visse) matematiske objekter som noe annet og mer enn tomme posisjoner i en struktur, i strid med strukturalismens hovedidé.

Dermed har vi allerede besvart det neste naturlige spørsmål: matematikk er jo "vitenskapen om mønstre", ikke om posisjonene i mønstrene, så hvorfor er det ikke mønstrene selv som er de matematiske objektene? Ganske enkelt fordi mønstrene som sådanne ikke oppfyller det strukturalistiske (i Resniks versjon) kriterium for å være et matematisk objekt, nemlig å være en posisjon i et mønster. Men hva da med for eksempel gruppeteori? En gruppe er jo et mønster, og gruppeelementene er posisjoner i dette mønsteret, og dermed akseptable matematiske objekter. Men gruppeteori behandler jo virkelig gruppene selv som individer, som posisjoner i større mønstre, for eksempel homomorfier, eksakte sekvenser av homomorfier, mer generelle diagrammer av homomorfier, osv. Er ikke da også gruppene akseptable matematiske objekter? Jo, Resnik ville ikke ha kommet langt uten å godta det. Poenget er at i en gitt matematisk teori kan ikke det mønsteret teorien beskriver gjøres til objekt for teorien, et mønster kan ikke være en posisjon i seg selv. "Selv om disse teoriene [dvs. tallteoriene] ikke kan behandle den naturlige tallfølgen som en posisjon, kan andre teorier gjøre det. For eksempel kan mengdelæren representere den [dvs. den naturlige tallfølgen] som en mengde (N,S) [hvor N er selve mengden og S er etterfølgerfunksjonen]. Dette eksemplet er typisk for matematikken. Ingen av de vanlige matematiske teorier kan behandle den struktur eller de strukturer de prøver å beskrive, som en posisjon i denne strukturen, fordi det ville kreve at teoriens diskursunivers var medlem av seg selv." (side 247). Vi kan gå videre, og si at mengdelæren beskriver kategorien av mengder, men denne kategorien er ikke selv en mengde og kan ikke være objekt for mengdelæren. Derimot er den et objekt for kategoriteorien, hvor den kan inngå i mønstre av funktorer, naturlige ekvivalenser osv.

Hierarkiet av matematiske objekter er derfor prinsipielt åpent oppad, men nedad må det ende opp med strukturer som kan realiseres som mønstre av ordinære ikke-matematiske objekter. Og disse "basisstrukturene" kan vi abstrahere fra deres realiseringer, eventuelt via en idealisering. "Uten å måtte anerkjenne matematiske objekter [i utgangspunktet], ville våre forfedre kunne observere at noen objekter er rettere, rundere eller mer firkantede enn andre. Dette kunne ha ledet dem til å forstå hva det er for noe å være absolutt rett, eller absolutt rundt, eller absolutt firkantet." (side 180). På denne måten mener Resnik å antyde hvordan man kan etablere en brukbar empiristisk matematikkepistemologi kombinert med ontologisk realisme, selv om matematiske objekter ikke er kausalt virksomme. De mest elementære av dem er posisjoner i mønstre som kan abstraheres ut av allminnelig kausalbetinget sanseerfaring. Det er naturligvis tingen, som fyller posisjonen i en fysisk realisering av mønsteret, som påvirker oss kausalt, ikke den abstraherte posisjonen selv. I neste omgang kan vi reifisere mønsteret og sette det som posisjon i et annet mønster, osv.

Jeg kunne ha fortsatt med å se på Shapiros "konvensjonalis-tiske strukturalisme", Hellmans "modalstrukturalisme", "neo-logisismens" forsøk på gjenoppliving av Freges system (Bob Hale, Crispin Wright, og andre), etter at det på 80-tallet ble påvist at dette systemet kan gjøres konsistent ved å postulere det såkalte Humes prinsipp i stedet for å tilbakeføre det på Freges berømte femte lov, og ikke minst kunne jeg ha tatt for meg Parsons og Friedmans mer Kant-inspirerte oppfatninger. Men det er grenser for hvor mye en kan ta med, om det skal bli mer enn en oppramsing av navn og standpunkter, så disse og andre emner får utstå til en senere anledning.

6. Anakronistisk epilog.

Hittil har jeg bestrebet meg på å la de omtalte oppfatninger komme til orde uten for mange egne kommentarer, omtrent som en historiker kunne referere en fortidig politisk kontrovers hvor hun selv ikke har noen som helst personlig interesse. Men jeg er filosof, ikke filosofihistoriker, og i dette avsluttende avsnittet akter jeg å la naturen ta overhånd over opptuktelsen. I beste spiritistiske tradisjon vil jeg la Kant slippe til med en kort kommentar til sine etterkommere ved overgangen til det nye årtusen:

"Jeg hadde vel ikke de store forhåpninger til et snarlig gjennombrudd for den kritiske tenkning, men jeg er nok litt skuffet over at dere ikke har kommet lengre. Deg, Frege, har jeg dyp respekt for, du hadde mot og integritet til konsekvent å hevde matematikkens aprioritet, og greide etterhvert å arbeide deg ut av din feiloppfatning av aritmetikken som analytisk.

Benacerraf, du har naturligvis rett i at tallene ikke er objekter, men du kommer ikke videre før du innser at de er skjema for størrelseskategorien. Og har du virkelig ikke tenkt over betingelsene for objektiviteten av de kausaldommene du legger til grunn for din "vitenskapelige epistemologi"? Ja, ja, jeg vet det ikke er så enkelt i kjølvannet etter Quine, det var ikke så enkelt for meg heller i kjølvannet etter Locke og Hume. Du slipper iallfall motpresset fra rasjonalistiske metafysikere, som jeg forstår er praktisk talt utryddet. Men dere kunne kanskje trenge noen slike, for det var på mange måter nettopp dette krysspresset, kombinert med mitt innebygde krav om konsekvent tenkning, som tvang meg ut i den kritiske horisont. (Forresten, hvor er det blitt av de fundamentale kravene om å tenke selv, tenke seg inn i andre, og tenke konsekvent? Hvilke tenkningsmaksimer er det egentlig dere følger, og lærer skolebarna deres?)

Kjære Carnap, dine språksystemer inngår jo med nødvendighet i språket, og tenkningen, som helhet. I dette totale systemet er alle spørsmål interne, du kan ikke avvise et spørsmål som meningsløst bare fordi det går utenpå det subsystemet som omhandler vedkommende gjenstand eller entitet. Når det gjelder matematiske objekter, betyr eksistens ikke noe annet enn at vedkommende begrep er konstruerbart i anskuelsen, og det matematiske språksystem er utviklet for å beskrive denne objektive virkeligheten, det er ikke språksystemet som bestemmer en "intern virkelighet"!

Hilbert, dine kombinatoriske formale systemer er, slik du oppfatter dem, bare bilder. Derfor er du forsvarsløs mot empirismen. Du er så opptatt av objektivitet og sikkerhet at du ikke våger å nærme deg skjemaet, med dets nødvendige henvisning til subjektet, og du ser ikke at matematikkens objektivitet avhenger av den appersepsjonssyntesen av rent anskuelsesmangfold skjemaet uttrykker.

Og du, Brouwer, du plasserer dine bilder i indre anskuelse, som mentale akter, og bommer dermed på skjemaets objektivitet, du også. Dine matematiske objekter og sannheter blir subjektive konstruksjonshandlinger, og dermed tidsavhengige og kontingente. Det hjelper ikke å erklære denne mentale aktiviteten som a priori, for løsrevet fra skjemaet er den like kontingent, like empirisk, som ethvert annet ytre eller indre hendelsesforløp.

Field, matematisk sannhet har ingenting med hva matematikerne aksepterer å gjøre. Hvor sikre vi føler oss på at en matematisk påstand er riktig, kan godt helt eller delvis avhenge av matematikernes enighet, men dens objektive nødvendige sannhet, hvis den er sann, er helt uavhengig av hva matematikere og andre tror og mener. Det samme gjelder matematisk konsistens. Hvis matematikerne ikke var i stand til stort sett å felle sanne matematiske dommer, hvordan kan vi da vite at de er i stand til stort sett å felle innbyrdes konsistente dommer? Din feiltagelse kommer av at du tror at matematisk avledning er logisk, og dermed nødvendig, i motsetning til de matematiske påstander avledningen forbinder med hverandre. Men at en matematisk dom følger av en annen, er selv en matematisk dom, med den samme syntetiske, ikke-logiske nødvendigheten som andre matematiske dommer. At matematikerne stort sett gjør sine ting riktig, kommer simpelthen av at de alle må antas å ha de samme anskuelsesformene og de samme mulighetene til å danne skjemaer for konstruksjoner i disse.

Hale, jeg er selvsagt enig med deg i at matematisk erkjennelse i likhet med logisk er nødvendig. Men begrunnelsen av matematisk nødvendighet blir likevel en annen enn for logisk nødvendighet. Og hmm, jeg vil nødig virke ubeskjeden, men jeg har faktisk en epistemologi som gir en koherent redegjørelse for både empirisk, logisk og matematisk erkjennelse, og dertil en ontologi som henger sammen med denne, fordi de begge springer ut av en kritisk oppfatning av subjekt-objekt-relasjonen.

Og så du, min sønn Resnik! Så nær, og likevel så fjern! Dine strukturer eller mønstre higer liksom etter skjemastatus, men så faller de uhjelpelig ned på et slags bilde, som de må ettersom du insisterer på en empiristisk epistemologi (den Quine, den Quine!). Selvsagt kan matematisk erkjennelse som all annen erkjennelse bare oppstå gjennom erfaring. I den forstand er jeg den mest radikale empirist av alle! Men når jeg i erfaringen oppfatter strukturer eller mønstre, så uttrykker det min syntese av det gitte empiriske mangfold, og denne syntesen er ikke selv empirisk gitt. I den grad jeg greier å bringe denne syntesen på begrep, har jeg matematisk erkjennelse. Og ..."

OK, Kant, det holder. Jeg vet du har mer å si, men denne seansen nærmer seg slutten. Ha det bra, og hils Platon!

Vel, før dere tilkaller en eksorsist, får jeg skynde meg å si som Giovanni Guareschi sier om Kristus-uttalelsene i boka om den hardtslående pater don Camillo: Det er naturligvis ikke Kant, men Kant i meg, som uttaler seg her.

Seansen er slutt. Takk for oppmerksomheten!

Tilbake til norsk hovedside

Back to English main page