Printer Friendly

VERS UNE SEMIOTIQUE COMPUTATIONNELLE?

Introduction: semiotique et formalisation

La semiotique est un type de recherche qui s'interesse a l'analyse, la description et l'explication de realites semiotiques, c'est-a-dire des objets, faits ou actions qui dans le monde sont porteurs de significations pour des humains. En termes classiques, pour reprendre la definition de Peirce, elle est une forme de logique des signes: << Logic is [...] synonymous with semeiotic, the pure theory of signs in general. >> (Peirce, s.d.)

Mais cette theorie des signes n'est pas des plus faciles a construire. Divers courants la traversent. Pour notre propos, qui s'interesse ici aux liens entre semiotique et computation, nous nous attarderons plus specifiquement a deux des plus importants courants.

Un premier s'interessera avant tout aux fonctions et usages des signes. Les signes ne sont pas par eux-memes porteurs de signification. Ils la recoivent dans la parole (Saussure), la communication (Jakobson, Martinet, Halliday, Eco, etc.) ou le dialogue (Habermas, Apel, RicLur) ou l'intentionnalite (Austin, Searle, Grice) que les agents leur assignent. Et les theories du langage initiees par des Herder, Hermann, Humboldt et evidemment Wittgenstein, bien que ne s'exprimant pas toujours en termes de semiotique, insisteront sur l'usage effectif des signes pour une theorie de la signification. Ce courant est tres riche et a ouvert des voies de recherche des plus fecondes. Cependant, rares sont les projets qui se sont aventures dans une certaine formalisation de la demarche d'analyse semiotique. Ils sont encore plus loin d'un lien avec la computation. On dirigera plutot la description et l'explication sur les multiples conditions de participation a la communication et l'usage des signes.

Le second courant s'interessera a l'organisation et la structuration des signes euxmemes independamment de leur usage et communication. Deux traditions scientifiques en proposeront la comprehension. Dans une premiere--le structuralisme d'influence saussurien (Saussure, Hjemslev, Jakobson, Greimas, Rastier, etc.)--on soutiendra qu'une theorie des signes ne peut avoir comme objet des signes isoles. Elle doit s'interesser a leur organisation ou a leur structure: c'est-a-dire, elle doit identifier, decrire et expliquer les unites et les relations differentielles qui les construisent.

L'exemple prototypique de systemes de signes sera la langue. Pour Saussure (1990: 159), << dans la langue tout repose sur des rapports >>. La langue est un << systeme dont tous les termes sont solidaires et ou la valeur de l'un ne resulte que de la presence simultanee des autres >>. Elle est regie par une multiplicite de types de relations (syntagmatiques, associatives, paradigmatiques, oppositionnelles, etc.) et, en consequence, elle peut etre comprise comme un systeme formel: << la langue est pour ainsi dire une algebre qui n'aurait que des termes complexes>> (Saussure, 1990: 168). Une tout autre tradition--le logicisme (Frege, Carnap, Morris, Ogden et Richard, etc.)--soutiendra qu'une theorie des signes doit decrire et expliquer les conditions necessaires de leur structuration (syntaxe), de leur fonction signifiante (semantique) et de leur usage (pragmatique). La semiotique est alors une theorie des systemes symboliques. Ceux-ci sont constitues de symboles et de regles qui permettent de composer des configurations (dites formules) simples ou complexes de signes ou symboles. Les langues logiques en sont le prototype. Bref, tant le structuralisme que le logicisme soutiendront la these qu'une theorie semiotique adequate et riche doit decrire et expliquer non pas les signes isoles, mais leur organisation et leur structuration. Reste evidemment a determiner la maniere et la methode pour ce faire.

On trouvera ainsi des exemples riches et feconds de l'application de ces hypotheses structuralistes et logicistes a divers systemes de signes. La langue sera certes le domaine prototypique de son application. Mais on l'explorera aussi dans de nombreux autres types d'artefacts semiotiques dont on proposera de formaliser certaines dimensions. Pensons aux analyses des contes et des recits (Propp), de la langue (Hjemslev), des romans (Greimas), de la culture (Lotman), du discours (Halliday), des films (Metz), des mythes (Levi-Strauss), de la communication (Andersen), du marketing (Sebeok), de la musique (Nattiez, Jackendoff), du visuel (Groupe [mu], Saint-Martin), de la cognition (Brandt), etc.

Rares cependant seront les analyses qui en appelleront systematiquement a une formalisation rigoureuse et complete. Harris (1968) et Sebeok (1976) seront parmi ceux, qui, a l'instar de Carnap et Morris (1971), tenteront de degager des principes formels d'une analyse semiotique formelle. Pelc (1979) et Lieb (1979) proposeront des modeles d'une semiotique formelle, Marty (1979) lira Peirce a travers la theorie des categories, Petofi (1978), van Dijk (1978) et Pavel (1975) proposeront des grammaires formelles pour l'analyse des textes. Lambek et Lambek (1981) appliqueront la logique categorielle a l'analyse de relations de parente, Jackendoff (1987) decrira la musique de maniere generative. Petitot (1985) proposera des analyses semiotiques au moyen de la theorie de morphodynamique de Thom. Descles (1990) en appellera a la logique combinatoire pour la description semiotique du langage naturel. Tijus et ses collegues (2006) appliqueront des grammaires categorielles a des pictogrammes. Hoffmeyer et Favereau (2009) liront la biologie a travers la semiotique, Vickers et coll. (2013) et Nowakowska (1981) proposeront des semiotiques formelles pour la visualisation et les systemes multidimensionnels.

1. La << semiotique computationnelle >>

Malgre la richesse et la pertinence de ces hypotheses formalistes ou structuralistes et de ces programmes de recherche, peu de ces chercheurs feront un lien entre cette formalisation et la computation. Ce n'est que recemment, depuis une vingtaine d'annees, qu'apparaitra un courant de recherche semiotique qui fera explicitement ce lien avec le computationnel et qui s'appellera, en francais, semiotique computationnelle ou en anglais, computational semiotics. Dans ce courant, on peut distinguer deux programmes differents de recherche.

Un premier programme voit la computation elle-meme comme une forme de theorie semiotique. Ce que l'on vulgarise souvent en disant que l'ordinateur est un artefact semiotique parmi d'autres. Comme le dira Nadin (1977, 2007), l'ordinateur est le prototype d'une machine semiotique: << Pour etre signifiant les ordinateurs doivent etre des machines semiotiques (1).>> Une telle vision traversera plusieurs projets de type intelligence artificielle: par exemple, la communication humains-machine (De Sousa, 2005), la programmation (Tanaka-Ishii, 2010), le design informatique (Liu, 2005), et meme la robotique (Meystel et Albus, 1991). Floridi (1999) est peut-etre celui qui a le plus dynamise l'importance de la vision informationnelle et semiotique de l'informatique.

Un second programme inversera la relation entre la semiotique et le computationnel. Cette fois, on cherchera a expliquer des faits ou formes semiotiques par la computation. Ainsi, la theorie semiotique inclurait dans ses outils methodologiques la notion de computation. Ce qui serait vulgarise ainsi: certains artefacts semiotiques peuvent etre traites par des algorithmes.

Une telle perspective sera exploitee dans plusieurs projets de type semiotique. On la retrouvera tres ancree en sciences cognitives classiques qui, malgre un vocabulaire non semiotique, soutiendra, a l'instar de Fodor (1975), que l'esprit [mind] peut etre compris comme un systeme computationnel de representations, c'est-a-dire en termes semiotiques: de quelque chose qui se tient a la place de ... (aliquid stat pro aliquo) ou encore en termes plus contemporains de signes/signaux/informations.

Une meme vision se retrouvera aussi dans les sciences humaines, les lettres, la linguistique, la communication, les medias. Certains artefacts semiotiques de ces disciplines seront decrits et expliques par des concepts et des theories de nature computationnelle. Plusieurs projets de recherche s'inscriront dans ce programme: par exemple, des les annees 1970, plusieurs chercheurs tant en Europe qu'en Amerique exploreront divers domaines par des approches linguistiques et mathematiques (Busa, 2008; McKinnon, 1973; Brunet, 1986; Lebart et Salem, 1988; Bolasco et Salem, 1996; Hockey, 2000; McCarthy, 2008). Ce n'est que plus tard que certains de ces territoires seront approches de maniere ouvertement semiotique. Pensons, par exemple a l'analyse semio-computationnelle du langage naturel (Descles, 1997), l'analyse semantique (Rieger, 1999), la communication personne-machine (Andersen, 1991), l'hermeneutique materielle (Bachimont, 1996; Rastier, 2011; Mayaffre, 2000), mais plus recemment, et avec un dynamisme surprenant: les humanites numeriques (McCarthy, 2008; Hockey, 2000; Rockwell, 2003; Douelhi, 2011; Dacos et Mounier, 2014; Meunier, 2015; etc.). Dans ce programme de recherche, la these principale sera que les signes et symboles qu'etudie la semiotique peuvent etre traites et analyses de maniere computationnelle.

Dans ces deux programmes, le lien entre semiotique et computation est direct. De plus, la computation elle-meme est aussi intimement liee a l'informatique. Il reste cependant qu'a part les humanites numeriques, cette semiotique computationnelle, comme telle, n'a pas reussi veritablement a prendre son envol. Elle est demeuree relativement marginale par rapport aux principaux courants de la semiotique. En outre, elle a ete souvent soumise a des critiques importantes.

Ainsi, relativement au premier programme de recherche, certains douteront de la pertinence des concepts semiotiques pour fonder les projets informatiques (Pylyshyn, 1984), non pas en raison de sa faussete, mais en raison de sa trop grande generalite et de son manque de rigueur dans sa conceptualite et ses formalisations. Et plus generalement, les informaticiens trouveront non pertinent ou inutile de penser la theorie de computation comme une forme de theorie semiotique. Cette difficulte pour la semiotique d'en appeler a quelconque formalisation lui vaudra des critiques severes. On ne la verra pas comme une demarche scientifique credible. Elle apparaitra plutot comme une forme plus ou moins rigoureuse de demarche interpretative portant sur des artefacts semiotiques.

Le deuxieme programme de recherche rencontrera aussi une resistance. Plusieurs semioticiens refuseront d'admettre que les problemes semiotiques complexes comme ceux que l'on trouve dans les arts, les lettres, le social, etc., puissent etre decrits et expliques de maniere computationnelle. On verra ce programme de recherche comme reprenant la theorie positiviste des automates ou de la cybernetique. Pire encore: l'ordinateur ne sera qu'un gadget dans une demarche semiotique.

La comprehension de ce lien entre semiotique et computation n'est pas une problematique simple. Ce lien existe, mais il est plus complexe que la formulation vulgarisee qui le traduit en termes de relation entre ordinateur et semiotique.

2. La semiotique comme une science modelisatrice

Pour explorer cette problematique, nous commencerons par nous interroger sur la nature de la pratique scientifique en jeu dans la semiotique pour mieux voir comment et ou elle pourrait etre liee a la computation. Pour ce faire cependant, il faut preciser ce qu'est cette scientificite de la semiotique. Car, des le point de depart, plusieurs refuseront de voir la semiotique comme une science, c'est-a-dire une science comme le voit l'epistemologie classique de type logico-positiviste, a savoir: une pratique discursive qui s'exprime dans un langage formel et valide ses propositions par de l'experimentation.

Une telle comprehension de la pratique scientifique est evidemment problematique pour la semiotique. Elle releve, on le sait, d'une vision de la science tout a fait specifique, c'est-a-dire, ou la science est avant tout une entreprise de formalisation nomologique et logique comme le proposent Schlick (1979), Neurath (1973), Carnap (1937), Hempel (1965) ou Nagel (1961). D'autre part, meme si ces types de formalisation etaient pertinentes et utiles pour une modelisation formelle, rien n'assurerait qu'elles aient la puissance symbolique adequate pour traiter la complexite des certains phenomenes tels le climat, l'astrophysique, les reseaux sociaux, etc. Et encore moins les artefacts semiotiques.

Cette vision de la science, on le sait, n'en est qu'une parmi plusieurs. Elle a ete des plus critiquees. En sciences sociales et humaines, elle fut regulierement remise en question tant par l'Ecole de Francfort et plus particulierement Horkheimer (1974). On trouvera trop reductrice cette vision syntaxique et objectiviste de la science. Elle est peu pertinente dans les sciences humaines, qui sont confrontees a de l'interpretation complexe et qui determinent ultimement la reference et la verite des propositions. Interpretation qui se construit non pas par stipulation, mais dans l'usage, le dialogue et la communication. La perspective doit etre plus hermeneutique (Habermas, 1973).

Cependant, entre un vison positiviste et une vision hermeneutique, une autre vision de la science emergera avec les travaux de Kuhn (1962) et Feyerabend (1975). Celle-ci cherchera a retenir certains elements de l'une et l'autre de ces deux visions precedentes. Ici, la science sera comprise avant tout comme une demarche de connaissance. Pour un Kuhn, la science est une demarche cognitive dont les propositions ou les croyances sont partagees (des paradigmes) par une communaute epistemique. Pour Bachelard (1979), Canguilhem (1977), van Fraassen (2008) et Thagard (2004), elle sera une construction, reconstruction et combinaison de representations epistemiques souvent nombreuses et diversifiees qui, chacune a sa maniere, joue un role particulier dans la creation des concepts et des theories. Plus recemment, Cartwright (1983), Giere (1988, 1999), Rheinberger (1997), Leonelli (2007), Morgan et Morrison, (1999) et Frigg (2011) considereront comme trop generale cette notion de representation et la retraduiront en termes de modele.

L'aspect original de cette vision est que les theories que la science construit ne sont pas definies comme un ensemble fixe d'enonces (axiomes, theoremes, etc.) comme le proposait Carnap, mais plutot comme un ensemble de modeles qui emergent, se croisent, se completent, se stabilisent, s'affaiblissent et finalement meurent. Ainsi, une theorie scientifique est une dynamique cognitive complexe fondee sur une multiplicite de modeles interrelies.

Ces modeles sont des artefacts epistemiques qui participent a la description, l'explication et la comprehension des objets de recherche. Ils presentent cependant une propriete commune: ils s'expriment tous dans des formes semiotiques, plus particulierement, des langages ou des systemes de symboles. Certains d'entre eux sont non formels (langue naturelle, langage iconique), d'autres sont strictement formels (algebre, geometrie, logique, algorithmes), d'autres enfin sont hybrides (un mixte de langage naturel et de langage iconique et formel, etc).

Chacun de ces modeles aura des roles epistemiques specifiques qui, ultimement, viseront la description et l'explication des phenomenes. Mais tous seront interrelies d'une maniere ou d'une autre et ensemble, ils seront les porteurs des concepts et des theories scientifiques. La richesse et la diversite de ces modeles enrichiront la demarche scientifique.

Cette vision de la science est des plus heuristiques pour comprendre la demarche semiotique. Celle-ci peut ainsi etre vue comme une pratique epistemique specifique qui, a sa maniere, construit un ensemble de modeles descriptifs et explicatifs de phenomenes ou de realites d'un type particulier: les artefacts porteurs de significations. En termes plus simples, la semiotique est une activite cognitive de comprehension modelisatrice d'artefacts signifiants. Et comme toute science, elle construira necessairement plusieurs modeles. Mais vu la complexite des objets qui interessent la semiotique, certains modeles seront privilegies pour construire une theorie.

3. La variete des types de modeles

Plusieurs chercheurs ont etudie des pratiques effectives en science (Leonelli, 2007; Knuuttila et Loettgers, 2012). Ils ont montre comment, dans ces pratiques, les theories scientifiques sont peuplees d'une multitude et d'une diversite de modeles.

Dans certaines sciences, les modeles crees ont des roles cognitifs differents, quoique pas toujours precis, exclusifs et bien identifies. Certains servent a l'exploration des intuitions, des croyances, des hypotheses qu'il faut preciser, ajuster, definir, etc. D'autres, au contraire, reposent sur des expertises bien maitrisees ou des protocoles standardises d'experimentation que l'on doit adapter, ajuster, reformuler, etc. Certains jouent un role dans la demonstration, le prototypage, la simulation, etc. D'autres prennent des formes symboliques complexes de type algebriques, mecaniques, graphiques, systemiques, etc. Enfin, d'autres sont evaluatifs, critiques, revisionnistes, etc.

Bien que certains modeles soient plus valorises ou importants que d'autres, aucun n'est hegemonique par rapport aux autres. Et souvent, seuls quelques-uns repondront aux canons epistemologiques de types logico-nomologiques. Autrement dit, une theorie scientifique met en Luvre une dynamique epistemique complexe ou les modeles contribuent, individuellement et collectivement, a l'emergence d'un savoir. Dans une telle perspective, par la configuration de ses modeles, chaque science se construit une signature propre.

Notre intuition ici est que la semiotique est aussi une pratique modelisatrice pluraliste. Devant la complexite de certains artefacts, faits et evenements, une theorie semiotique adequate ne peut que construire une multiplicite de modeles. Selon son rythme d'evolution, de developpement et a certains moments de son developpement, certains modeles seront privilegies et d'autres seront mis en retrait. Mais aucune recherche semiotique ne peut penser n'avoir qu'un seul type de modeles et s'y restreindre. Une recherche semiotique serieuse exige, comme toute autre science, divers points de vue, angles d'approche, expertises, postures, etc. Chaque projet semiotique contiendra ses ensembles propres de modeles. Par exemple, un litteraire qui approche le fait textuel n'aura pas les memes modeles que l'anthropologue qui scrute des rituels, pas plus que le sociologue qui etudie les representations sociales ou le politicologue qui analyse des discours d'un president.

Dans une telle perspective d'ouverture, certains pensent que la recherche semiotique peut introduire, parmi plusieurs autres, des modeles formels et ultimement des modeles computationnels pour enfin creer des modeles informatiques.

Ces trois types de modeles entretiennent de fait des liens etroits. Et comme nous le montrerons dans la presente recherche, il ne peut y avoir de modele computationnel que s'il existe au prealable des modeles formels. Et ce n'est qu'a cette condition qu'une modelisation informatique est possible. Par ailleurs, l'existence d'un modele formel ne garantit pas celle d'un modele computationnel et celle d'un modele informatique. Nous etudierons maintenant ces trois types de modeles.

4. Le modele formel

Nous commencons par le modele formel. Pour la tradition epistemologique classique, un modele est dit formel si la forme de son expression contient un ensemble fini de symboles regis par des regles strictes de composition. Par commodite, on appellera souvent ces systemes symboliques formels des langues formelles (2) ou les symboles de depart constituent un vocabulaire et les regles de syntaxe permettent de generer et de transformer des formules. Cette langue formelle est sans semantique (3). On distinguera des modeles formels selon le type de systemes symboliques qu'ils utilisent.

Un premier type de modeles formels est axiomatique (4). Il est le modele ideal propose par la philosophie de sciences classiques (Carnap, 1935; Hempel, 1965; Suppes, 1967). Ce type de langage possede des regles particulieres de transformation de ses formules (inference, substitution, etc.). Certaines formules sont choisies comme postulats, axiomes, theoremes, lemmes, corolaires, etc. Dans certaines applications scientifiques, des formules seront considerees comme des lois. Des sequences de formules serviront de demonstration et de preuve. Les prototypes de systemes axiomatiques sont les divers systemes logiques: logique propositionnelle, predicative, combinatoire, etc. Dans ces systemes, la semantique joue un role secondaire. On les utilise surtout pour modeliser des structures mathematiques. Peu de sciences l'utiliseront pour la modelisation de leur objet de recherche. Ils se sont averes loin de la pratique concrete des sciences.

Le deuxieme type de modeles formels est mathematique. Dans la pratique, ces modeles sont les plus utilises en science. Ils possedent aussi un vocabulaire et une syntaxe. Ils se caracterisent, entre autres, par l'inclusion de classes de symboles (constantes, variables, operations, etc.). Ils ajoutent aussi des types particuliers de regles pertinentes a des manipulations complexes (5) de leurs symboles (substitution, elimination, recursion, transformation, etc.).

Cependant, certaines formules seront importantes pour la description et l'explication des phenomenes, entre autres: les formules qui expriment des relations fonctionnelles (6), communement appelees des fonctions.

Par exemple, si la langue formelle est de type algebrique, la grammaire de cette langue formelle permettra de generer une formule (equation) qui exprime une relation fonctionnelle: F(x, y):z = [(x + y).sup.2] et a partir de laquelle, en suivant des regles, on pourra generer l'equation F(x, y):z = [x.sup.2] + 2xy + [y.sup.2], peu importe l'univers de reference auquel renvoie cette equation.

Les prototypes de ces systemes symboliques mathematiques sont l'arithmetique, les algebres, les statistiques, la geometrie, le calcul lambda, les theories des ensembles, des groupes, des graphes, du chaos, les grammaires categorielles, etc.

Ces systemes symboliques sont aussi par definition sans semantique. Cependant, dans leur utilisation concrete dans une science, ils recevront une semantique specifique, construisant ainsi un modele formel mathematique interprete. Ainsi, ce modele reliera le systeme symbolique a divers types d'entites et de relations du domaine etudie. Par exemple, en physique, l'equation F = ma est une formule syntaxiquement bien faite et ou les symboles renvoient a des entites d'un monde etudie par les physiciens. Ainsi, la verite des formules dependra du domaine d'application, c'est-a-dire de la semantique qui lui est assignee.

Une consequence immediate est qu'un modele formel ne porte pas necessairement sur du quantitatif. Aussi, on trouvera des formalismes logiques, geometriques, topologiques, grammaticaux, etc. Certains utiliseront des symboles iconiques (graphes, images, etc.). Dans tous ces formalismes, on pourra trouver divers types de symboles: tels des constantes, des variables, des operateurs, etc.

Ces modeles formels mathematiques sont omnipresents tant dans les sciences naturelles que dans les sciences humaines et sociales. Par exemple, on retrouve ces types de modeles formels en economie qui, pour expliquer des dynamiques de marche, en appellera a la theorie des jeux, aux systemes d'equilibre, au calcul d'optimisation, aux probabilites bayesiennes, etc. Les neurosciences exploreront des modeles formels d'algebre non lineaire de classification, de categorisation et qu'ils nommeront metaphoriquement des reseaux de neurones. L'archeologie contemporaine utilisera simultanement ou sequentiellement des modeles statistiques, geometriques, graphiques, algebriques, linguistiques qui, interactivement, participeront a la description de la fouille d'un site.

On retrouve aussi des modeles formels en semiotique. Cependant, peu sont de types arithmetiques, ou algebriques, mais certains sont de type grammatical ou logique. Le carre logique; les grammaires generatives, categorielles, les graphes, en sont des exemples classiques.

Nous avons insiste dans cette section sur des details un peu techniques sur la nature d'un modele formel. Ces details sont essentiels pour comprendre le second type de modeles que nous aborderons maintenant: le modele computationnel. Car le modele formel est la porte incontournable a la computationnalite. Sans lui, il n'y aura pas de computation possible. Malgre son omnipresence en science, ce type modele pose un type probleme important: la validite de ses formules. Ce probleme invite a la creation d'un second type de modeles: le modele formel computationnel.

5. Les modeles computationnels

Le deuxieme type de modeles est computationnel. Ces modeles sont des variantes d'un modele formel. Ils sont un sous-ensemble des modeles formels mathematiques. Comme ces derniers, les modeles computationnels utilisent des systemes symboliques, mais dont les formules ont une propriete tout a fait particuliere a savoir: etre << computables >>. Nous expliciterons un peu plus loin la nature de cette propriete. Comme nous le verrons, cette propriete n'est pas simple. Depuis des siecles, elle est au cLur d'interrogations tres techniques des mathematiques. Et aujourd'hui, elle sert de fondement theorique aux technologies informatiques. De plus, elle n'est pas sans lien avec la semiotique.

Sur le plan historique, cette question de la computation est ancienne. Deja au 13e siecle, le logicien John de Salisbury (1115-1180) evoquait dans ses ecrits qu'un de ses etudiants, William de Soissons, avait construit une machine << machina >> (engine) capable de demolir des theories logiques et de construire des conclusions a partir de principes logiques a l'aide d'une machine capable par une manipulation de symboles de montrer la validite d'un raisonnement.

Une meme idee se retrouvera un siecle plus tard chez Ramon Lull (1232-1315) qui proposait un artefact en papier constitue de cercles imbriques contenant des symboles discrets (representant des concepts) et sur lequel on pouvait appliquer des manipulations physiques de triangles ou de leviers (voir la figure 1). Cet artefact permettait d'effectuer la demonstration que certaines configurations de symboles etaient vraies ou fausses. Cet artefact fut historiquement interprete comme une << machine >>. Selon (Kneale et Kneale, 1988), elle serait le premier modele des machines a << computer >>.

L'interet de cette << machine >> repose sur deux proprietes importantes qui seront reprises plus tard dans les theories de la computation. Premierement, cette << machine >> qui effectue la computation est une technologie physique (une roue faite d'un materiau particulier), sur laquelle sont inscrits des signes discrets et qui, par une manipulation de triangles ou de leviers, permet une mise en relation entre des configurations de signes (reduites ou augmentees). Le tout servant de << preuve >>. Deuxiemement, la signification des signes n'est pas une propriete prise en compte par la << machine >>. Cependant, ces signes peuvent, eux, etre interpretes ou sont interpretables par des humains. Mais cette interpretation est exterieure a la machine et elle est non pertinente pour son fonctionnement.

Une formulation moins << physique >>, mais des plus importantes, se retrouvera chez Hobbes ([1651], 1962). Celui-ci exprimera par sa fameuse formule << cogitare est computare >> que raisonner, c'est-a-dire penser, est une computation; computation qui consiste en un ensemble d'operations appliquees sur des symboles nominaux generaux (nomina) signifiant la pensee comme celles qu'on effectue sur des operations de soustraction et addition c'est-a-dire: << (reasoning) is nothing but reckoning (that is, adding and subtracting) of the consequences of general names agreed upon, for the marking and signifying of our thoughts >> (Hobbes, 1651).

Leibniz (1646-1716) reformulera cette idee en termes plus synthetiques de calculus ratiocinator. Il precisera une propriete specifique d'un tel calcul: il doit etre une combinatoire de symboles, c'est-a-dire un ensemble d'operations sur des symboles. Ce calcul forme ainsi une lingua caracteristica. Idee que Condillac (1714-1780) reprendra a son tour en affirmant que si cette langue est parfaite, elle est une algebre: << l'algebre est une langue bien faite et c'est la seule! >>

Ce sera Boole (1847) qui ajoutera la fibre la plus importante au lien entre calcul et computation. Pour lui, un calcul sur symboles repose, certes, sur la verite des lois de combinaisons des symboles, mais surtout il ne doit pas dependre de la signification de ces symboles: << Their validity does not depend on the significance of the symbols which they involve, but only on the truth of the laws of their combination. >> (Boole, 1847: 2, 7)

Selon Kneale (1948), ce serait la l'une des importantes << decouvertes >> de Boole: << there could be an algebra of entities which were not numbers in any ordinary "sense" and that the "numeric" laws governing these entities need not be arithmetic >> (Kneale, 1948: 160).

Ainsi, dans cette tradition, il existe un lien serre entre raisonner, computer, calculer, combiner et manipuler des signes. Autrement dit, un calcul valide est une combinatoire appliquee a des signes, et il est effectue sans egard a la signification de ces signes.

Une telle these est importante. En effet, il ne suffit pas pour avoir de la computation au sens de Hobbes, mais surtout de Boole, qu'une machine physique configure et reconfigure aleatoirement des signes. Il faut que ces configurations soient des combinaisons regies par les lois et ceci hors de leur signification.

Aujourd'hui, cette these sera exprimee en termes linguistiques: un calcul ou une computation est une operation qui, appliquee de maniere purement syntaxique a des ensembles signes, produit d'autres ensembles de signes et ceci sans egard a leur semantique.

5.1 Les modeles computationnels et la validite

Cette derniere these demeure generale. Elle ne precise pas encore les conditions necessaires et suffisantes pour qu'un calcul ou une combinatoire de signes (sans signification) soit valide. En effet, on pourrait facilement creer une machine qui manipule de maniere reglee des configurations de signes sans egard a leur signification. Mais il resterait a savoir si ces manipulations produisent des formules valides. Autrement dit, comment decider si ces formules sont valides ? Ce qui nous ramene a notre question: qu'est-ce qu'un calcul valide sur des signes?

La reponse a cette question est connue; elle se formule ainsi: un calcul est valide s'il est possible de determiner ou de decider si une formule appartient ou n'appartient pas au systeme symbolique. Autrement dit, il faut montrer qu'il existe des conditions necessaires et suffisantes, c'est-a-dire: des procedures fermes de decision ou de calcul de la validite d'une formule (7).

En 1900, Hilbert reprendra cette question sous diverses formes dans les fameux problemes qu'il avait soumis aux mathematiciens. On peut les paraphraser ainsi: Sous quelles conditions une formule d'un systeme symbolique de type arithmetique peut-elle etre dite decidable ou calculable ? Plusieurs mathematiciens tenteront de repondre a cette question. Une premiere solution est proposee par Church (1936): une formule mathematique sera calculable si elle est recursive. Mais c'est Turing qui apportera la solution qui sera ulterieurement la plus acceptee: un calcul est valide s'il est le resultat de l'application de procedures effectives sur les symboles, c'est-a-dire s'il est le resultat des operations qu'une machine physique (appelee plus tard Machine de Turing) pouvait appliquer a des symboles deposes sur un support physique (--papier). On dira alors que cette machine << computait >> la solution. Plus tard, Turing demontrera que les manipulations que sa machine executait etaient equivalentes au calcul que Church avait propose. Ce sera la these dite Church-Turing 8. Par la suite, ce calcul computationnel sera aussi demontre equivalent a de nombreuses autres formes de calculs, par exemple: le calcul recursif de Kleene (1936), les regles de production de Post (1936), la logique combinatoire de Curry et Feys, (1958), les algorithmes de Markov (1960), les grammaires a etats finis (Chomsky, 1957), les automates de von Neumann (1963) et bien d'autres.

En bref, si une formule d'un systeme symbolique est decidable, elle peut etre traduite par un algorithme dont une forme d'ecriture est un langage de programmation. Il y a donc un lien serre entre les systemes symboliques de type mathematique et ceux de type computationnel. Si un systeme mathematique assure la calculabilite et la decidabilite de ces formules, alors il est aussi un systeme formel computable.

Cette these de la computation est bien exprimee autrement par la definition de Soare:

A computation is a process whereby we proceed from initially given objects, called inputs, according to a fixed set of rules, called a program, procedure, or algorithm, through a series of steps and arrive at the end of these steps with a final result, called the output. The algorithm, as a set of rules proceeding from inputs to output, must be precise and definite, with each successive step clearly determined. The concept of computability concerns those objects which may be specified in principle by computations, and includes relative computability (Soare, 1996: 286).

Selon ces definitions, on peut donc voir un modele computationnel comme une variante d'un modele formel. En fait, il en est un sous-ensemble. Le modele formel sera computationnel si les systemes symboliques qu'il contient sont computables.

Enfin, Fodor et Pylyshyn (1988) proposeront une formulation plus semiotique, linguistique et logique de ces theses sur la nature de la computation. Un systeme est dit computationnel si, dans le systeme symbolique, on peut identifier des constituants atomiques ou discrets, et si on peut definir des regles systematiques et productives (compositionnelles). Mais ils ajouteront une contrainte externe pour son usage effectif, c'est-a-dire il faut qu'on puisse associer une semantique a toutes les formules d'un tel systeme symbolique.

Cette formulation sera reprise par les sciences cognitives et elle servira de these fondatrice pour les theories de l'esprit. Le cerveau deviendra la machine biologique de computation. C'est aussi par cette formulation que les courants de la semiotique computationnelle se definiront. On verra ainsi certains systemes semiotiques, surtout ceux proches de la langue, comme pouvant etre modelises par des grammaires ou la recursion est explicite. Dans ce cas, par la these de Turing-Church, on peut appliquer des modeles computationnels a ces systemes symboliques ou semiotiques.

Malgre la rigueur et la richesse de ce modele computationnel, il sera difficilement accepte par les semioticiens. Il impose d'importantes contraintes a l'analyse. On ne voit pas que de tels modeles soient applicables a des taches d'analyse semiotique comme, par exemple: l'identification d'un style musical, la choregraphie d'une danse, la formation des concepts, l'evolution de themes en litterature, les structures narratives, les liaisons intertextuelles, les biais epistemiques, les tendances architecturales, les conditions de production des discours, les structures argumentatives, la production d'une toile, la preparation d'une exposition, la transmission des memes, etc.

Il est difficile de voir comment ces objets ou situations semiotiques peuvent recevoir une modelisation computationnelle qui respecte la recursivite, l'algorithmie, la grammaticalite, etc. C'est fort probablement en raison de ces difficultes que plusieurs semioticiens refusent d'en appeler a des modelisations computationnelles pour decrire et expliquer des realites semiotiques. Mais ceci n'est pas la seule raison. Il existe un probleme encore plus profond: celui de la non-computationnalite. Et on ne peut l'esquiver.

5.2 La non-computation

Liee a la these de la computationnalite des systemes symboliques est la question suivante: se pourrait-il que certaines formules d'un modele mathematique ne soient pas calculables et donc ne soient pas computables?

Ce fut la un probleme qui, sur le plan historique, fut souvent discute en mathematique, car l'ideal d'une langue rationnelle ou combinatoire qu'avait propose Leibniz fut regulierement remise en question par plusieurs mathematiciens. Nous ne soulignerons ici que quelques points qui nous semblent pertinents relativement a la manipulation des symboles. Ils illustrent les problemes intrinseques de la calculabilite et ouvrent la porte a la non-computationnalite.

Cas 1: Les symboles d'abreviation

Le premier cas est celui des symboles d'abreviation. Il interrogea serieusement la calculabilite. Classiquement, on trouve dans les langues mathematiques des chiffres, des lettres et des operateurs (+, -, =, etc.) et meme des positions (colonnes, espaces, surelevement, etc.). Les regles de leur manipulation furent toujours connues des mathematiciens. Mais le developpement des mathematiques introduisit d'autres types de symboles qui devinrent problematiques pour le calcul. Parmi ceux-ci se trouvent les symboles d'abreviation.

Ainsi, dans sa Lingua universalis, Leibniz introduisit un de ces types de symboles pour representer la multiplication d'un chiffre par lui-meme. Cette operation s'ecrivait habituellement 7 x 7. L'ecriture de cette formule fut changee par l'insertion d'un symbole complexe constitue d'un chiffre plus un surelevement, comme dans [7.sup.2] et que l'on comprend aujourd'hui comme la mise au carre ou la mise en puissance 2. Ce symbole en apparence simple est en fait une abreviation qui, lorsque le chiffre est sureleve, exprime un nombre d'iterations de la multiplication de la variable ou d'un chiffre par lui-meme. Par exemple; [y.sup.4] est l'abreviation de y x y x y x y. Une telle abreviation est evidemment tres utile et permet des ecritures syncopees pour des puissances fortes, par exemple: [7.sup.20].

Leibniz proposa aussi des symboles d'abreviation pour plusieurs autres operations. Par exemple: un grand << S >> majuscule appele peu apres par Bernoulli (1654-1705) le symbole de l'integrale pour remplacer la sommation effectuee dans l'integration de la surface sous la courbe. Euler, en 1755, remplacera les sommations generalisees par un symbole specifique: grand sigma << [SIGMA] >>. Certains mathematiciens allerent encore plus loin dans cette creation de symboles d'abreviation. Ils en utiliserent le symbole << [delta] >> pour calcul de la derivee, et le symbole << [integrale] >> pour l'integrale, etc. Ceux-ci semblaient operer de maniere analogue a des symboles permettant des manipulations sur des symboles de quantite. Cauchy donna une forme definitive a ce type de calcul utilisant ces abreviations. Les mathematiciens apprecierent ces multiples symboles de types superieurs. Ils permettaient des calculs sur les operations elles-memes. On les appela: << calculs d'operations >>. Lagrange (1772) voyait une << nouvelle espece de calcul >> dans ces nouveaux types de representations. Cette strategie fut acceptee par plusieurs mathematiciens et elle est encore utilisee aujourd'hui.

Cependant, comme l'a bien montre Koppelman (1971) dans une etude historique tres detaillee de mathematiciens britanniques, ceux-ci s'interrogerent sur validite du calcul qui peut etre effectue en utilisant ces formules abregees. Woodhouse (1803) par exemple, a montre de maniere tres detaillee et habile que dans certains cas, la notation algebrique qui utilisait la presentation abregee d'une equation donnait des resultats differents de la presentation non abregee. Apparaitraient ainsi des paradoxes sinon des contradictions. Il donnait l'exemple de l'equation suivante, ou deux divisions representent sous forme abregee des series

1/[1 + x] = 1/[x + 1]

Ces deux formules de division sont reliees par un signe =, ce qui affirme qu'elles sont equivalentes. Cependant, selon Woodhouse (9), si on les presentait effectivement par leur extension en serie, on verrait qu'elles ne le sont pas. En effet, on obtiendrait pour la premiere l'equation la serie suivante:

1/[1 + x] = 1 + x + [x.sup.2] + [x.sup.3] + ...

Et pour la seconde, nous aurions la serie suivante:

1/[x + 1] = [1/x] + [1/[x.sup.2]] + [1/[x.sup.3]] + ...

On constaterait alors que ces deux series ne sont pas equivalentes. Il s'ensuivrait alors que l'equation originelle, qui met en equivalence leur forme abregee, est problematique. Woodhouse en concluait alors qu'on ne peut affirmer une equivalence entre leurs formes abregees: << with reference to their expansions it cannot be affirmed that 1/[1 + x] = 1/[x + 1]. >> (cite par Koppelman, 1971: 276)

Ainsi, l'introduction de symboles d'abreviation, et ce n'est qu'un exemple parmi plusieurs autres, posa des problemes au principe de calculabilite dans un systeme algebrique: la manipulation des symboles d'abreviation n'assurerait plus toujours la validite des calculs.

Cas 2: Les symboles de variables

Le deuxieme cas concerne les symboles de variables. La presence de ces symboles posera a son tour des problemes importants de calculabilite. Car, comme l'ont montre Descles et Cheong (2006), la manipulation de formules symboliques avec des variables n'est pas aussi simple que la manipulation de formules ne contenant que des constantes.

Dans le calcul algebrique classique, le symbole se presente comme une lettre de l'alphabet et il semble manipulable comme un chiffre. Par exemple: 7x, x + 4 = 7.

Ce qu'il y a de particulier pour le symbole x, c'est qu'il introduit dans le calcul un symbole qui, au plan semantique, designe une valeur inconnue. De ce fait, sa manipulation met en jeu une problematique particuliere quant a la productivite de la langue formelle qui l'utilise. Elle introduit dans les formules autre chose que la composition classique. En effet, ce type de symboles pour les variables exige, pour etre bien manipule, du moins dans certains cas, non pas la simple combinaison avec d'autres symboles, mais la substitution de certains symboles a celui de la variable et ceci afin que le calcul puisse etre applique de maniere valide. Par exemple, pour resoudre une equation comme la suivante: y = [racine carree de -x], il faut substituer des chiffres. Cependant, comme on le sait, ce n'est pas n'importe quel domaine de reference dans lequel on peut puiser ces chiffres. Ainsi, dans la precedente equation, si x > 0, alors l'equation n'a pas de solution (a moins d'accepter l'ensemble des nombres imaginaires) alors que si x < 0, il y a une solution. Il en sera ainsi de plusieurs autres utilisations de la variable. En raison de ces problemes caches, Descartes fut un des premiers a douter de la pertinence du symbole de la variable qui entrainait dans certains cas des absences de solution. Carnot les critiquera aussi en raison des paradoxes qu'elles pouvaient generer.

En fait, si on analyse plus attentivement le symbole de la variable, on constatera qu'il ne releve pas uniquement de la langue-objet. Il y a en lui quelque chose qui releve du metalangage. En effet, pour manipuler correctement le symbole de la variable, il faut d'une part savoir quel symbole est effectivement celui qui peut etre manipule comme un symbole de chiffre, et d'autre part, il faut que soit defini le domaine des valeurs qui pourront etre a substituer a cette variable. Autrement dit, sous le symbole de la variable se cache en ensemble d'operations que l'on resume sous le concept de substitution. Mais un tel ensemble d'operations cachees introduit des difficultes importantes dans le calcul. Car les variables impliquent implicitement ou explicitement un croisement de deux enonces distincts, l'un appartenant au langage-objet et l'autre au metalangage. Le premier indique quel symbole est la variable, le second en appelle a la semantique du symbole. Ce qui affecte evidemment le principe meme de la calculabilite des formules qui justement reposaient sur l'absence d'une semantique.

Pour eviter ces problemes, Church (1936) proposera une solution au calcul des fonctions algebriques avec variables en introduisant la notation lambda. Celle-ci permettait au sein meme des formules de preciser les valeurs admissibles pour les variables. Par exemple, l'expression ([lambda]x)([x.sup.2] = 4) determinera sans ambiguite les valeurs specifiques que peuvent prendre les expressions fonctionnelles, c'est-a-dire elle determinera quelle valeur de la variable peut rendre cette fonction vraie ou fausse. Sans pour autant introduire dans la formulation les expressions vraies ou fausses, Curry et Feys (1958) proposerent une solution radicale: une langue formelle sans variable: la logique combinatoire.

Ces deux exemples illustrent la complexite de cette question de la calculabilite dans les systemes formels. Elle est toujours l'objet de nombreux debats entre mathematiciens (10). Comme nous le disions plus haut, en posant sa question de la calculabilite en 1900, Hilbert (11) mettait en evidence que certaines equations connues (par exemple, x + 8 = 5y, [x.sup.2] = 2[y.sup.2]--equations dites diophantiennes) etaient sans solution. Le lecteur attentif remarquera que les deux equations precedentes sont syntaxiquement bien faites. Pourtant, elles ne possedent pas de procedure connue de decision pour trouver la solution.

Par son theoreme d'incompletude, Godel (1931) demontra que, pour tout systeme symbolique axiomatique, il etait possible, malgre la manipulation syntaxique formelle de symboles, de generer aussi bien une configuration P de symboles que son contraire non-P. Une telle position remettait radicalement en question la possibilite d'un calcul valide pour les langages formels. Turing a son tour demontra quelque chose de similaire relativement aux fonctions que sa machine ne pouvait pas computer. En 1939, il proposa une solution originale pour rendre computables des fonctions arithmetiques non computables: il en appelait a des << oracles >>: << With the help of the oracle we couldform a new kind of machine (call them o-machines), having as one of its fundamental processes that of solving a given number-theoretic problem >> (Turing, 1939: 161).

Ulterieurement, on decouvrira que plusieurs fonctions mathematiques, bien que correctement formees, posent des problemes majeurs de calcul. De fait, en mathematique, l'existence de ces types de fonctions non computables n'est pas un fait rare. Effectivement, les fonctions computables ne sont qu'un sous-ensemble tres restreint des fonctions mathematiques.

Cette question de la non-computationnalite est encore plus problematique qu'on le pense (12). En effet, il existe des systemes formels qui, bien qu'utilisant des fonctions computables, peuvent devenir si complexes qu'ils se transforment en systemes non computables. Chaitin (1998) a recemment montre que plus les systemes symboliques sont complexes, plus ils incluront de la redondance (ce qui assure une stabilite au systeme). Et en consequence, plus cette redondance peut entrainer la non-computationnalite du systeme formel.

Voila autant de contraintes qui, dans de nombreuses recherches scientifiques, entrainent des problemes de precision, de prediction, de certitude, de validite, de completude, etc. et donc, de non-calculabilite,: << Undecidability and incompleteness are everywhere, from mathematics to computer science, to physics, to mathematically-formulated portions of chemistry, biology, ecology, and economics. >> (Chaitin, Doria et da Costa, 2012: 2)

Et pour certains informaticiens contemporains, les fonctions non computables sont theoriquement beaucoup plus interessantes que les fonctions computables: << The subject (of computation) is primarily about incomputable objects not computable ones >> (Soare, 2009: 59).

Bref, les systemes mathematiques computationnels sont un ensemble eminemment restreint des systemes mathematiques. La grande majorite des fonctions mathematiques sont non computables (13).Cette these de la non-computationnalite sera assurement la bienvenue par les semioticiens pour les artefacts semiotiques ne peuvent pas tous etre modelises de maniere computationnelle. Mais pour etre encore plus radical, nous dirons que, comme en mathematique, en raison de la complexite des artefacts semiotiques, il est infiniment plus probable qu'ils ne soient pas modelisables de maniere computationnelle. Bref, le domaine de la semiotique serait-il avant tout de type non-computable ?

Comme on le voit, cette notion de non-comptabilite vient destabiliser la construction des modeles formels et des modeles computationnels. Car meme si un modele formel etait possible, il n'est pas assure que les fonctions decouvertes, generees ou construites seraient calculables et donc computables ! Autrement dit, tout modele formel n'est pas par definition un modele computable.

Cette difficulte de la notion de computationnalite nous permet de preciser les contraintes inherentes a un lien possible entre semiotique et computation. Une theorie semiotique de type computationnelle ne peut exister que si elle en appelle a de la modelisation formelle de type mathematique (non pas necessairement quantitatif), dont les enonces, formules ou equations permettent la calculabilite. Ce n'est qu'a cette condition qu'une semiotique peut etre computationnelle.

En semiotique, comme Peirce l'avait vu (14), ceci signifie que les systemes symboliques doivent etre controles et qu'en consequence, ces systemes rencontreront leurs propres limites. Une machine, selon Peirce, opere toujours a partir de parametres et de regles qui ne sont pas les siennes, mais qui lui sont donnees de l'exterieur.

On voit que le lien possible entre la semiotique et la computation est situe en un endroit tres specifique: Si une analyse semiotique peut inclure dans sa description et son explication d'une realite semiotique un modele formel possedant des operations de manipulations valides, c'est-a-dire y inclure un calcul valide sur les symboles specifiques, alors ce modele sera equivalent a un modele computable.

En contrepartie, il ne sera pas possible de construire un modele computationnel pour des realites semiotiques qui ne possederaient pas toutes les conditions necessaires pour les modeliser de maniere computationnelle, algorithmique, recursive, combinatoire, etc. Postuler que la modelisation computationnelle pour traduire adequatement tant la multiplicite et la complexite des realites semiotiques est une hypothese que peu de chercheurs seraient prets a soutenir.

6. Le modele informatique

Le troisieme modele est de type informatique. Tout comme les autres, il assiste la description et l'explication d'une realite, mais cette fois, il effectue cette tache en faisant appel a une technologie. Il est intimement lie au modele formel et surtout au modele computationnel. A premiere vue, on aurait tendance a identifier la notion de computation avec celle d'ordinateur. En effet, dans le langage populaire, les deux sont souvent prises comme synonyme. On dira facilement que la propriete d'un ordinateur est la computation parce qu'il peut calculer une fonction. Mais cette formulation est ambigue. Or, il y a une difference entre la notion de computation et la notion d'ordinateur.

La notion de computation, avons-nous dit, appartient a une theorie mathematique. Elle touche la question de la calculabilite des fonctions mathematiques. Ce qui est computable formellement est une fonction au sens strict du terme. La notion d'ordinateur, pour sa part, appartient au domaine d'une technologie physique qui permet d'effectuer cette computation. Et ce n'est que si une fonction est computable qu'un ordinateur peut la computer. Qui plus est, pour une meme fonction calculable, il y a plusieurs machines physiques qui peuvent la calculer. La machine de Turing n'en qu'une parmi d'autres. Si la fonction n'est pas trop complexe, meme des humains peuvent concretement la calculer. Avant Turing d'ailleurs, des humains appeles calculateurs ou computor faisaient ce travail. Bref, la computationnalite est une notion logiquement anterieure a celle d'ordinateur. En consequence, un modele computationnel est different d'un modele informatique (15).

Ainsi, ce qui caracterisera un modele informatique est la forme d'architecture qui sera donnee a l'ordinateur. Et en cela, tous les modeles informatiques ne seront pas identiques. Cette architecture peut varier et rendre plus ou moins efficaces, et meme plus ou moins possibles, les operations de calcul. Tout dependra de la complexite des fonctions a calculer et des composantes contenues dans la technologie informatique.

Par exemple, l'architecture de la petite machine de Turing, avec ses roues, son bras et ses rouleaux de papier (voir la figure 2), peut << theoriquement >> tout calculer, mais la vitesse et le nombre d'operations peuvent etre si grands qu'il devient impossible d'effectuer le calcul d'une fonction complexe en un temps fini.

Vers les annees 1940, von Neumann proposa une architecture plus sophistiquee pour les ordinateurs. Dans ses formes primitives, cette architecture etait composee d'une memoire, d'unites arithmetiques et logiques, d'unites de controle et des dispositifs d'entree et de sortie (voir la figure 3).

Malgre l'amelioration de la puissance et du temps apportee par cette architecture, en raison de leur complexite intrinseque, toutes les fonctions formellement computables ne peuvent pas toujours etre traitees concretement.

Par exemple, un ordinateur a l'architecture classique von Neumann peut computer des equations de la mecanique newtonienne (comme la loi de la gravite), mais en raison du temps de traitement necessaire, il peut etre impossible de traiter concretement certaines fonctions mathematiques d'un modele formel chaotique pour decrire et expliquer la dynamique gravitationnelle d'un typhon.

Evidemment, cette architecture classique de base de von Neumann a grandement evolue depuis ses origines. Une multiplicite et une diversite de types de composantes se sont ajoutees, tels des compilateurs, des traitements paralleles des langages de programmation, des peripheriques d'entree et de sorties, des bases de donnees, les codes mobiles, etc.

Aujourd'hui, l'architecture des ordinateurs est encore plus complexe. La miniaturisation des composantes, mais surtout les ordinateurs distribues, la grille informatique (grid computing), le nuagique, les serveurs centralises, etc. permettent une vitesse et une puissance de traitements computationnels impossible auparavant (voir la figure 4).

Mais ces architectures ont un ajout majeur: elles ont la capacite de traiter des fonctions computationnelles d'une grande complexite en un temps acceptable pour des recherches scientifiques. On peut ainsi cumuler, fouiller, comparer, archiver, visualiser, transferer des donnees massives. Elles peuvent traiter d'immenses catalogues de regles, des grammaires formelles complexes, de grands calculs bayesiens, des champs de Markov sophistiques, des systemes dynamiques chaotiques, de l'apprentissage machine, de l'apprentissage profond et de l'intelligence artificielle, etc.

En raison de la puissance de ces architectures, certaines sciences ont ainsi pu construire de puissants modeles informatiques pour explorer plus en profondeur leur territoire de recherche. Pensons a la genetique, la climatologie, l'astrophysique, les reseaux sociaux semantiques, la gestion distribuee des entreprises, la medecine, l'environnement, la cognition, la robotique, la biologie informatique, etc.

Ces puissantes architectures ne sont pas sans modifier et changer profondement la forme et les conditions memes de la pratique scientifique. En effet, bien que la science puisse construire des modeles formels et computationnels d'une belle richesse et d'une grande complexite, ceux-ci seront inefficaces pour decrire et expliquer des phenomenes s'il n'existe pas une architecture informatique capable de computer concretement les fonctions que ces modeles contiennent. En ce sens, l'ordinateur contemporain a ouvert de nouvelles possibilites a la science.

Comme l'ont constate recemment certains epistemologues (Thagard, 1999; Giere, 1988, 1999; Latour, 1986; Vallverdu i Segura, 2009), l'ordinateur joue un role de plus en plus important dans la pratique et la theorisation scientifique. Par exemple, il renouvelle les formes experimentales, consolide les demonstrations, les preuves, les validations, les falsifications, les evaluations, la dynamique d'echange, de controle, de publication, etc. Bref, il modifie le raisonnement scientifique lui-meme. Il n'est plus simplement nomologique-deductif. La theorie opere avec et entre des modeles. Et les modeles informatiques en sont une forme importante et essentielle dans la pratique scientifique contemporaine.

Il faut cependant se rappeler que cette puissance informatique ne peut tout faire. Car, rappelons-le, un ordinateur ne peut << calculer >> que ce qui est computable. Et ce qui est computable est une infime partie de ce qui est formellement modelisable. De plus, sur le plan de sa structure meme, cette technologie n'est pas infaillible. L'erreur peut s'y introduire a plusieurs endroits tant dans les donnees que dans le code, les programmes, la coordination, les communications, et meme l'infrastructure physique elle-meme. On se rappellera le probleme physique de la puce Pentium 199416, qui ramenait toujours les memes resultats pour certaines divisions en raison d'une coupure trop rapide de la virgule flottante. Ceci affectait les calculs complexes, surtout ceux fondes sur des modeles chaotiques sensibles aux conditions initiales.

La semiotique n'echappera pas a cet impact de l'ordinateur. Plus il existera de modeles formels computables d'artefacts semiotiques, plus la semiotique utilisera elle aussi des modeles informatiques. De fait, plusieurs disciplines des sciences humaines effectuent de la recherche sur des artefacts semiotiques et plusieurs en appellent a des modeles semiotiques qui, de plus en plus, introduisent dans leur demarche des modeles formels computationnels. L'utilisation de l'ordinateur y est de plus en plus presente. Pensons aux etudes des representations sociales en sociologie, des reseaux sociosemantiques en communication, des analyses conceptuelles en philosophie, des courants litteraires en lettres, des fouilles archeologiques, des archives historiques, des cultures en anthropologie, des discours politiques en sciences politiques, de la jurisprudence en droit. Sans parler des arts et des medias. Qui plus est, et de maniere tres forte, les humanites dites numeriques se definissent par un rapport a la modelisation informatique (Katz, 2005; Schreibman et coll., 2008; McCarthy, 2008; Unsworth, 2002).

Bien que ces artefacts soient complexes, et que certaines de leurs composantes ne soient pas modelisables formellement et computationnellement, certaines composantes importantes de la demarche semiotique peuvent, elles, etre modelisees computationnellement et ensuite soumises a un traitement informatique. C'est precisement dans ces interstices que les architectures informatiques contemporaines, avec leurs immenses reposoirs et leur puissance de traitement algorithmique, ouvrent de nouvelles voies de recherche a la semiotique.

Prenons par exemple les puissants reposoirs de donnees. Ces donnees massives ne sont pas sans modifier les << observables >> semiotiques et imposer de nouvelles formes d'analyse. Si autrefois on pouvait privilegier quelques artefacts semiotiques, par exemple une dizaine de recits, de mythes, un ou deux textes d'un auteur, aujourd'hui, les chercheurs des sciences humaines sont soudainement confrontes a des donnees massives, issues de projets gargantuesques de numerisation de patrimoines textuels, iconiques, sonores mediatiques, etc. Pensons aux Google Books, Facebook, Twitter, Wikipedia, GLAM wiki, aux musees virtuels, etc. Pensons a ces reposoirs qui contiennent de plus en plus de donnees semiotiques multimodales ou se rencontre une diversite de types de signes (texte, image sons, etc) (voir Nowakawska, 1981).

On peut etre pour ou contre ces donnees massives en raison de leur non-pertinence, non-equivalence, ambiguite, superficialite, etc. (voir la critique de Boyd, 2011,) ils n'en recelent pas moins de questions semiotiques importantes qui imposent un recours a un traitement computationnel meme minimal.

Outre ces reposoirs, les architectures informatiques contemporaines permettent d'annoter les donnees representant les artefacts semiotiques sous forme de metadonnees. Certaines de ces metadonnees peuvent etre ajoutees automatiquement. Mais comme les annotations sont toujours des actes interpretatifs, elles ne peuvent pas toujours etre effectuees de maniere algorithmique; aussi faut-il plutot assister leur insertion de maniere manuelle. Dans les deux cas, on trouve des modules informatiques de plus en plus riches qui permettent de l'annotation editoriale, lexicale, syntaxique, semantique, pragmatique, sociale, culturelle, mediatique, etc. S'ajoutent aussi a ces modules des outils interactifs qui permettent d'adapter, de modifier, d'enrichir les metadonnees. Ainsi, des explorations semiotiques classiques peuvent etre enrichies. Pensons aux analyses de discours, de sentiments, d'arguments, de narrativite, de concepts, de themes, de reseaux sociaux, etc.

Les architectures informatiques contemporaines permettent aussi d'explorer des modeles formels computationnels de grande complexite, par exemple: les calculs bayesiens, les systemes dynamiques, chaotiques, les reseaux de neurones, l'algebre vectorielle, les classifieurs, l'apprentissage machine, l'apprentissage profond, les grammaires categorielles, les reseaux semantiques, etc. Lorsqu'appliquees a des realites semiotiques, des proprietes difficilement identifiables << a la main >> peuvent etre explorees pour faire emerger des hypotheses d'interpretation. Ainsi sont explorees des fouilles d'invariants caches, des regularites semiotiques, assurees ou probables, recurrentes et interreliees, etc. De meme, de nouveaux domaines semiotiques apparaissent: la semiometrie (Lebart et coll., 2003), la lecture distante (Morreti, 2005), le forage d'arguments (Lippi et Torroni, 2016) la lecture et l'analyse conceptuelle assistee par ordinateur (LACTAO) (Meunier, 2009).

Outre ces reposoirs, ces metadonnees, ces analyseurs, on trouve de nouvelles formes d'interfaces 2D, 3D de visualisation. Celles-ci permettent d'effectuer des parcours semiotiques dynamiques et des inferences nouvelles, des critiques originales (Greengrass et coll., 2008).

Enfin, l'interconnectivite des ordinateurs entraine de nouvelles pratiques de recherche telles les recherches collectives et partagees (par exemple, HASTAC, voir Davidson et coll., 2004). Des acces libres aux publications, des logiciels libres, des centres de recherches des nouvelles formes d'evaluation. Sans parler de la formation des etudiants (Mactavish et Rockwell, 2006).

Bref, les nouvelles architectures informatiques invitent a un changement dans la recherche semiotique (Hale, 2017). Sous une forme ou une autre, elles rendent possible une semiotique computationnelle qui, cependant, doit etre comprise, non pas comme une semiotique automatique, mais qui plutot une assistance a la pratique classique de la recherche semiotique: une semiotique assistee par ordinateur.

Conclusion: le defi du lien computation et semiotique

Dans cette recherche, nous avons vise a preciser le lien technique entre la semiotique et la computation. Au debut de cet article, nous avons dessine brievement les deux grands courants de recherche qui manifestent explicitement une presence de la semiotique tant de la modelisation formelle, de la modelisation computationnelle que de la modelisation informatique. Mais force est de constater qu'aucun des deux courants, sauf exception, n'a pris son envol. Il y a peu de chances que de l'interieur de leur discipline, les informaticiens reconnaissent leur demarche comme incluant de la semiotique. Les semioticiens continueront a prendre la voie pragmatique et hermeneutique. Quelques structuralistes et formalistes peutetre ici et la exploreront une modelisation formelle, computationnelle et informatique.

Mais les veritables raisons sont plus profondes. Dans son ensemble, le domaine de recherche de la semiotique ne pourra pas facilement integrer une modelisation formelle computationnelle et informatique. La raison principale, rappelee constamment par les semioticiens, est que la recherche semiotique est essentiellement construction de theories qui portent sur l'interpretation des signes qui constituent un artefact semiotique.

Ceci limite grandement la possibilite d'un lien entre semiotique et computation, et ultimement, l'utilisation de l'ordinateur. En effet, bien qu'une technologie cree l'illusion, souvent spectaculaire d'ailleurs, de manipuler du sens et de la signification, elle ne peut, par definition que manipuler des signes sans signification. A l'entree, un ordinateur ne recoit que des symboles et il ne peut que les reconfigurer en d'autres symboles. Comme le souligneront plusieurs chercheurs, dont, de maniere recurrente, Searle (1980) et Harnad (1990), pour le domaine cognitif, un tel le traitement qu'effectue un ordinateur est essentiellement de nature << syntaxique >>. Une semantique peut toujours etre associee aux donnees, aux traitements et aux extrants, mais elle est toujours externe. Et c'est l'objectif meme de la semiotique de travailler au devoilement de cette signification.

Plus profondement encore, comme nous l'avons souligne plus haut, il est fort possible que les artefacts semiotiques qu'etudie la semiotique ne presentent pas des proprietes et des structures que des modeles puissent formaliser de maniere computationnelle. En consequence, meme un ordinateur ne pourra les traiter.

Malgre ces difficultes, le projet d'un lien entre semiotique et computation demeure possible, mais ce lien sera limite et devra respecter la nature de la recherche semiotique et la nature de la computation.

Pour etablir ce lien, nous avons propose de voir la pratique de la recherche semiotique comme une demarche scientifique qui construit des interpretations. Or, la vision de pragmatique de la science voit justement ces interpretations comme des modeles. En ce sens, la semiotique est, a sa maniere, une science qui construit des modeles; certains sont conceptuels, phenomenologiques, structuraux, logiques, hermeneutiques, etc. Ces modeles relevent des pratiques classiques de la semiotique. Mais un lien avec la computation n'est possible que si et seulement si certains modeles sont formels, computationnels et informatiques. Ce sont ces trois types de modeles que nous avons tente de presenter plus en detail dans cette recherche:

a) Un modele formel identifie dans l'objet de recherche des relations entre des signes et vise a les exprimer dans une langue formelle. Certaines de ces relations peuvent etre des relations de dependances fonctionnelles.

b) Un modele computationnel traduit ces relations fonctionnelles en fonctions computables et algorithmisables.

c) Un modele informatique construit une architecture informatique qui permet de computer effectivement les modeles formels et computationnels.

Enfin, pour resumer la problematique du lien entre semiotique et computation, il faut s'interroger sur la possibilite de respecter les conditions de construction de ces trois modeles, car il se pourrait que ce qui interesse vraiment la semiotique, ce soit des problemes de grande complexite et dont les modeles formels sont constitues en majeure partie de fonctions non calculables ou non computables. Peut-etre que, tout au plus, certaines fonctions pourraient etre << approximees >> tellement ces artefacts sont riches sur le plan semiotique. Certes, une demarche scientifique modelisatrice serait bienvenue, mais aurait-elle vraiment reussi a approcher la richesse semiotique de ces artefacts ? Et meme si elle y touchait un tant soit peu, il est fort possible qu'elle rencontre le paradoxe de Chaitin de la complexite.

Pour notre part, devant ces difficultes intrinseques de la computationnalite appliquee a la semiotique, nous privilegions une solution pratique inspiree de la notion d'oracle de Turing. Ceux-ci peuvent etre compris comme des modules ad hoc, mais computables et inseres dans un modele computationnel. Ils interviennent uniquement a des moments particuliers dans la demarche, plus particulierement quand les operations sur les fonctions bloquent ou qu'elles sont non calculables intrinsequement ou par leur complexite. Dans cette perspective pratique, les modules oracles computationnels accompagnent le semioticien dans son interpretation propre mais ils ne substituent pas a lui. Ils sont ainsi des outils dans une chaine d'analyse. Dans certains cas, ils aideront a effectuer des operations des plus simples comme, copier des notes d'analyse, mais dans d'autres cas plus sophistiques, ils pourraient l'aider a detecter ou << approximer>> une regularite au sein de donnees semiotiques massives ou non qui l'interessent.

Les recherches que nous explorons (Meunier et coll., 2003) sur la lecture et l'analyse des textes (LATAO) ont pris cette voie pratique. Une analyse de texte est une pratique classique en semiotique. Mais au point de depart, nous savons qu'un texte est un artefact complexe qui possede une multitude de niveaux semiotiques (Rastier, 1987). Il est fort probable que cette complexite rende difficile, voire impossible, la creation de modeles formels, computationnels et un traitement informatique. Dans ce cas, ces modeles peuvent cependant inclure des sections, des modules oracles. Et le tout ne peut produire qu'une assistance a ce travail semiotique sur des textes. Et la recherche consiste alors, pour une part, a decouvrir quels sont les meilleurs assistants. Et il y a quelquefois des surprises merveilleuses, car Hermes dirige toujours la recherche.

Notice biobibliographique

Jean-Guy Meunier, PhD, est professeur associe au departement de philosophie de l'UQAM. Il est rattache au programme de doctorat en informatique cognitive et au programme doctoral de semiologie. Il est directeur du Laboratoire d'analyse cognitive de l'information (LANCI). Ses recherches portent sur la semiotique, l'analyse des textes assistes par ordinateur (LATAO) et les humanites numeriques. Sur ces questions, il a publie plus d'une centaine d'articles. Il est membre titulaire de l'Academie internationale de philosophie des sciences (Bruxelles).

Ouvrages cites

ANDERSEN, P. B. (1991) A Theory of Computer Semiotics. Cambridge, Cambridge University Press.

BACHELARD, R. (1979), << Quelques aspects historiques des notions de modele et de justification des modeles >>, dans P. DELATTRE et M. THELLIER (ed.), Elaboration et justification des modeles, Paris, Maloine.

BACHIMONT, B. (1996), << Hermeneutique materielle et Artefacture: des machines qui pensent aux machines qui donnent a penser >>, these de doctorat de l'Ecole Polytechnique.

BLEY, D. M., A. Y. ANDREW, M. I. JORDAN et J. LAFFERTY (2003), << Latent Dirichlet Allocation >>, Journal of Machine Learning Research, vol. 3, p. 993-1022.

BOLASKO, L. L. S. et A. SALEM (dir.), (1996), Analisi Statistica dei Dati Testuali, Rome, CISU.

BOOLE, G. (1847), The Mathematical Analysis of Logic, Cambridge, Macmillan, Barclay & Macmillan.

BOOLE, G. (1854), << Of Signs in General, and of the Signs Appropriate to the Science of Logic in Particular; also of the Laws to which that Class of Signs are Subject >>, dans An Investigation of the Laws of Thought on Which are Founded the Mathematical Theories of Logic and Probabilities, New York, Macmillan (reprinted with corrections New York, Dover Publications, 1958).

BOYD, D. (2011), << Dear Voyeur, Meet Flaneur ... Sincerely, Social Media >>, Surveillance and Society, vol. 8, no 4, p. 505-507.

BRADLEY, J., (2008), << Pliny: A Model for Digital Support of Scholarship >>, Journal of Digital Information, vol. 9, no 1, p. XX.

BRUNET, E. (1986), Methodes quantitatives et informatiques dans l'etude des textes, Paris, Champion.

BUSA R. A. (2008), << Perspectives on the Digital Humanities >>, dans SCHREIBMAN, S., R. SIEMENS et J. UNSWORTH (dirs) (2008), A Companion to Digital Humanities, Malden, Wiley-Blackwell.

CANGUILHEM, G. (1977), Ideologie et rationalite dans l'histoire des sciences de la vie, Paris, Vrin.

CARMICHAEL, R. (1855), A Treatise on the Calculus of Operations, Londres, Longman, Brown, Green, and Longmans.

CARNAP, R. (1935), Philosophy and Logical Syntax, Londres, Kegan Paul, Trench, Trubner & Co.

CARNAP, R. (1937), The Logical Syntax of Language, Londres, Kegan Paul, Trench, Trubner & Co.

CARNAP, R. (1971), Writings on the General Theory of Signs, La Haye, Mouton.

CARTWRIGHT, N. (1983), How the Laws of Physics Lie, Oxford, Oxford University Press.

CHAITIN G. J. (1998), The Limits of Mathematics, Singapour, Springer.

CHAITIN G. J., F. A. DORIA, N. C. A. da COSTA, (2012), Godel's Way: Exploits Into an Undecidable World, Boca Raton (Floride), CRC Press.

CHOMSKY, N. (1957), Syntactic Structures, La Haye, Mouton.

CHURCH, A. (1936), << An Unsolvable Problem of Elementary Number Theory >>, The American Journal of Mathematics, vol. 58, no 2, p. 345-363.

CONDILLAC, E. B. T. de (1798), iuvres de Condillac. Essai sur l'origine des connoissances humaines. Paris, Houel.

CURRY H. B. et R. FEYS, (1958), Combinatory Logic, vol. I, Amsterdam, North-Holland Publishing Company.

DACOS, M et P. MOUNIER (2014), Les Humanites numeriques: etat des lieux et positionnement de la recherche francaise dans le contexte international, Paris, Institut francais.

DAVIDSON, C., BACSY, R. et J. SCHNAPP (2004), << The HASTAC Vision: Humanities, Arts, Science and Technology Advanced Collaboratory >>, Visual Resources Association Bulletin, vol. 30, no 3, p. 43-50.

DE SOUSA, C. S. (2005), Semiotic Engineering of Human-Computer Interaction. Cambridge, MIT Press.

DESCLES, J.-P. (1990), << Archetypes cognitifs, transitivites, et intentionnalite>>, Protee, vol. 18, no 2. p. 7-19.

DESCLES, J.-P.et K. S. CHEONG (2006), << Analyse critique de la notion de variable. Points de vue semiotique et formel >>, Mathematiques et sciences humaines / Mathematics and Social Sciences, no 173, p. XX.

DOUELHI, M. (2011), Pour un humanisme numerique, Paris, Seuil.

FEYERABEND P. ([1975], 2010), Against Method: Outline of an Anarchistic Theory of Knowledge, New York, Verso Books.

FLORIDI, L. (1999), Philosophy and Computing, Londres, Routledge.

FODOR, J. A. (1975), The Language of Thought, New York, Crowell.

FODOR, J. A. et Z. W. PYLYSHYN (1988), << Connectionism and Cognitive Architecture: A Critical Analysis >>, Cognition, vol. 28, no 1-2. p. 3-71.

FRIGG, R. (2011), << Fiction in Science >>, dans J. WOODS (ed.), Fiction and Models: New Essays, Munich, Philosophia Verlag.

FRIGG, R. et S. HARTMANN (2012), << Models in Science >>, The Stanford Encyclopedia of Philosophy.

GIERE, R. N. (1988), Explaining Science: A Cognitive Approach, Chicago, University of Chicago Press.

GIERE, R. N. (1999), << Using Models to Represent Reality >>, dans L. MAGNANI, L. NERSESSIAN, P. THAGARD, (ed.), Model-Based Reasoning in Scientific Discovery, New York, Plenum Publisher, p. 41-57.

GODEL, K. (1931), << On Formally Undecidable Propositions of Principia Mathematica and Related Systems >>, dans J. van HEIJENOORT (dir.) From Frege to Gidel: A Source Book in Mathematical Logic, 1879-1931, Cambridge, Harvard University Press, p. 596-616.

GREENGRASS, M. et L. M. HUGHES (2008), The Virtual Representation of the Past. Digital Research in the Arts and Humanities Series, Londres, Routledge.

HABERMAS, J. (1973), La technique et la science comme << ideologie >>, Paris, Gallimard.

HARNAD, S. (1990), << The Symbol Grounding Problem >>, PhysicaD, vol. 42, p. 335-346.

HARRIS, Z. (1968), Mathematical Structure of Language, New York, Interscience Publishers.

HAYLES, N. K. (2012), How We Think: Digital Media and Contemporary Technogenesis, Chicago, University of Chicago Press.

HALE, J. (2016), Merleau-Ponty for Architects, Abingdon, Routledge/Taylor and Francis.

HEMPEL, C. G. (1965), << Aspects of Scientific Explanation >>, dans C. G. Hempel (dir.), Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, New Y ork, Macmillan, p. 331-496.

HIIPPALA, T. (2013), << The Interface Between Rhetoric and Layout in Multimodal Artefacts >>, Literary and Linguistic Computing, vol. 28, no 3, p. 461-471.

HILBERT, D. ([1899], 1971), Les fondements de la geometrie, Paris, Dunod.

HOBBES, T. ([1651], 1962), Leviathan, New York, Collier Books.

HOCKEY, S. M. (2000), Electronic Texts in the Humanities: Principles and Practice, Oxford, Oxford University Press.

HOFFMEYER, J. et D. FAVEREAU (2009), Biosemiotics. An examination into the Signs of Life and the Life of Signs, Scranton, University of Scranton Press.

HORKHEIMER, M. (1974), Theorie traditionnelle et theorie critique, Paris, Gallimard.

JACKENDOFF, R. (1987), Consciousness and the Computational Mind, Cambridge, MIT Press.

KATZ, S., N (2005), << Why Technology Matters: the Humanities in the Twenty-First Century >>, Interdisciplinary Science Reviews, vol. 30, no 2, p. 105-118.

KLEENE, S.C. (1936), << General Recursive Functions of Natural Numbers >>, Mathematische Annalen, vol. 112, p. 727-742.

KNEALE, W. (1948), << Boole and the revival of logic >>, Mind, vol. 57, no 226, p. 149-175.

KNEALE, W. et KNEALE, M. (1988), The Development of Logic, Oxford, Clarendon Press.

KNUUTTILA, T. (2011), << Modelling and representing: An artefactual approach to model-based representation >>, Studies in History and Philosophy of Science, vol. 42, p. 262-271.

KNUUTTILA, T. et A. LOETTGERS (2012), << Mathematization in Synthetic Biology: Analogies, Templates and Fiction >>, dans J. LENHARD et M. CARRIER (ed.), Mathematics as a Tool, Tracing New Roles of Mathematics in the Sciences, Amsterdam, Springer, p. 37-56.

KOPPELMAN, E. (1971), << The Calculus of Operation and the Rise of Abstract Algebra >>, Archive for History of Exact Sciences, vol. 8, no 3, p. 155-242.

KUHN, T. S. (1962), The Structure of Scientific Revolutions, Chicago, University of Chicago Press.

LAGRANGE, J., (1772), << Sur une nouvelle espece de calcul relatif a la differentiation et a l'integration des quantites variables >>, iuvres, vol. 3, p. 441- 476, Gallica, Bibliotheque nationale de France http://gallica.bnf.fr/ark:/12148/bpt6k229222d/f442.

LAMBEK, J. et M. LAMBEK (1981), << The Kinship Terminology of Malagasy Speakers in Mayotte >>, Anthropological Linguistics, vol. 23, no 4, p. 154-182.

LATOUR, B. (1986), << Visualization and Cognition: Thinking with Eyes and Hands >>, Knowledge and Society, vol. 6, p. 1-40.

LEBART, L. et A. SALEM (1988), Analyse statistique des donnees textuelles, Paris, Dunod.

LEBART, L., M. PIRON et J.-F. STEINER (2003), La semiometrie, Paris, Dunod.

LEIBNIZ, G. W., (1969), Philosophical Papers and Letters, dans L.E. LOEMKER (dir.), Dordrecht, D. Reidel.

LEONELLI, S., (2007), << What is in a Model? Combining Theoretical and Material Models to Develop Intelligible, Modeling Biology: Structures, Behaviors, Evolution >>, dans M. LAUBICHLER, et G. B. MULLE (ed.), Modeling Biology, Cambridge, MIT Press.

LIEB, H. H. (1979), << Formal Semiotics vs Theoretical Semiotics >>, Semiotic Unfolding, vol. 1, Tasso Borbe (ed.), Berlin, Mouton Publishers, p. 175-180.

LIPPI, M. et P. TORRONI (2016), << Argumentation Mining: State of the Art and Emerging Trends >>, ACM Transactions on Internet Technology, vol. 16, no 2, p. 10.

LIU, K. (2005), Semiotics in Information Systems Engineering, Cambridge, Cambridge University Press.

LULL, R., (1985), Selected Works of Ramon Lull, 1232-1316, Princeton, Princeton University Press.

MACTAVISH, A. et G. ROCKWELL (2006), << Multimedia Education in the Arts and Humanities >>, dans R. G. SIEMENS et D. MOORMAN, Mind Technologies: Humanities Computing and the Canadian Academic Community, Calgary, University of Calgary Press, p. 225-243.

MARKOV, A., (1960), << The Theory of Algorithms >>, American Mathematical Society Translations. Series 2, vol. 15, p. 1-14.

MARTY, R. F (1984), << Normalisation et extension de la semiotique de C. S. Peirce >>, Semiotic Unfolding, vol. 1, Tasso Borbe (dir.), Berlin, Mouton Publishers, p. 185-193.

MARTY, R. F. (1990), L'algebre des signes. Essai de semiotique scientifique d'apres C. S. Peirce, Amsterdam/Philadelphie, J. Benjamins Pub. Co.

MAYAFFRE, D. (2000), Le poids des mots. Le discours de gauche et de droite dans l'entredeux-guerres. Maurice Thorez, Leon Blum, Pierre-Etienne Flandin et Andre Tardieu (1928-1939), Paris, Champion.

McKINNON, A. (1973), Computational Analysis of Kierkegaard's Samlede Vaerker, Leyde, E. J. Brill.

McCARTHY, W. (2008), << Modeling: A Study in Words and Meanings >>, dans SCHREIBMAN, S., R. SIEMENS et J. UNSWORTH (dir.) (2008), A Companion to Digital Humanities, Malden, Wiley-Blackwell, p. XX.

MEUNIER, J.-G (2012), << Humanites numeriques, enjeux et methodes >>, Revue Texto, vol. 17, no 1 et 2, http://www. revue-texto. net/index.php? id=3028.

MEUNIER, J.-G. et D. FOREST (2009), << Lecture et analyse conceptuelle assistee par ordinateur: premieres experiences >>, dans L'annotation, Paris, Hermes, p. 211-230.

MEYSTEL, A. et J. ALBUS (2002), << Intelligent Systems: Architecture, Design, and Control >>, dans Wiley Series on Intelligent Systems, Hoboken, J. Wiley and Sons, p. XX.

MORRETI, F. (2005), Distant Reading, New York, Verso Books.

MORRIS, C. W. (1964), Signification and Significance. A Study of the Relations of Signs and Values, Cambridge, MIT Press

MORRIS, C. W. (1971), Writings on the General Theory of Signs, La Haye, Mouton.

MORGAN, M. et M. MORRISON (ed.) (1999), Models as Mediators, Perspectives on Natural and Social Science, Cambridge, Cambridge University Press.

NADIN, M. (1977), << Sign and Fuzzy Automata >>, Semiosis, vol. 1, no 5, p. XX.

NADIN, M. (2007), << Semiotic Machine >>, The Public Journal of Semiotics I, no 1, p. 57-75.

NADIN, M. (2010) << Information and Semiotic Processes. The Semiotics of Computation >>, Cybernetics and Human Knowing, vol. 18, no 1-2, p. 153-175.

NAGEL, E. (1961), The Structure of Science: Problems in the Logic of Scientific Explanation, New York, Harcourt, Brace & World.

NEUMANN, J. von (1945), First Draft of a Report on the EDVAC, https://sites.google.com/site/michaeldgodfrey/vonneumann/.

NEUMANN, J. von (1963), << The General and Logical Theory of Automata >>, dans A. H. TAUB (ed.), John von Neumann. Collected Works, Oxford, Pergamon Press, p. XX.

NEURATH, O. (1973), Empiricism and Sociology, Dordrecht, D. Reidel.

NEWELL, A. et H. SIMON (1976), << Symbol Manipulation >>, dans Encyclopedia of computer science, New York, Petrocelli/Charter, p. XX.

NEWELL, A. et H. SIMON (1976), << Computer Science as Empirical Inquiry: Symbols and Search >>, Communications of the ACM, vol. 19, no 3, p. 113-126.

NOWAKAWSKA, M. (1981), << Formal Semiotics and Multidimensional Semiotic Systems >>, Cybernetics and Systems. An International Journal, vol. 12, no 1-2, p. 83-102.

PAVEL, T. G. (1975), << Possible Worlds in Literary Semantics >>, The Journal of Esthetics and Art Criticism, vol. 34, no 2, p. 165-176.

PEIRCE, C. S. (s.d.), << Miscellaneous Fragments [R]. MS [R] S104 >>, Commens Digital Companion to C. S. Peirce, http://www.commens.org/dictionary/term/semeiotic.

PEIRCE, C. S. (1931-1958), Collected Papers, Cambridge, Harvard University Press.

PEIRCE, C. S. (1976b), Caroline Eisele (ed.), The New Elements of Mathematics, vol. 4, La Haye, Mouton.

PELC, J. (1979), << On the Concept of Formal Semiotics >>, dans Semiotic Unfolding, vol. 1, Tasso Borbe (dir.), Berlin, Mouton Publishers, p. 269-276.

PETITOT, J. (1985), Morphogenese du sens: pour un schematisme de la structure, Paris, PUF.

PETOFI, J. A. (1978), << A Formal Semiotic Text, Theory as an Integrated Theory of Natural Language (Methodological Remarks) >>, dans DRESSLER (dir.), Current Trends in Textlinguistics, Berlin/New York, W. de Gruyter, p. 35-46.

POST, E. L. (1944), << Recursively Enumerable Sets of Positive Integers and their Decision Problems >>, Bulletin of the American Mathematical Society, vol. 50, no 5, p. 284-316.

POST, E. L. (1936), << Finite Combinatory Processes--Formulation >>, Journal of Symbolic Logic, vol. 1, no 3, p. 103-105.

PYLYSHYN, Z. W. (1984), Computation and Cognition: Toward a Foundation for Cognitive Science, Cambridge, MIT Press.

RASTIER, F. (1987), Semantique interpretative, Paris, PUF.

RASTIER, F. (2011), Le grain et la mesure, Paris, Champion.

REICHENBACH, H. (1938), Experience and Prediction: An Analysis of the Foundations and the Structure of Knowledge, Chicago, The University of Chicago Press.

RHEINBERGER, H. (1997), Towards a History of Epistemic Things. Synthesizing Proteins in the Test Tube, Stanford, Stanford University Press.

RIEGER, B. B. (1999), << Computing Fuzzy Semantic Granules from Natural Language Texts. A Computational Semiotic Approach to Understanding Word Meanings >>, dans M. H. HAMZA (ed.), Artificial Intelligence and Soft Computing, Proceedings of the IASTED International Conference, Anaheim/Calgary/Zurich (IASTED/Acta Press), p. 475-479.

ROCKWELL, G. (2003), << What is Text Analysis, Really? >>, Literary and Linguistic Computing, vol. 18, no 2, p. 209-219.

ROGERS, H. (1967), Theory of Recursive Functions and Effective Computability, Cambridge, MIT Press

SALISBURY, J., (1929), Ioannis Saresberiensis episcopi Carnotensis Metalogicon, Libri IV, C. J. Webb (ed.), Oxford, Clarendon Press.

SAUSSURE, F. de ([1916], 1990), Cours de linguistique generale, Paris, Payot.

SCHLICK, M. (1979), Philosophical Papers. Volume 1 (1909-1922), H. L. MULDER et B. F. VAN DE VELDE (dir), Dordrecht, D. Reidel.

SCHREIBMAN, S., R. SIEMENS et J. UNSWORTH (dir.) (2008), A Companion to Digital Humanities, Malden, Wiley-Blackwell.

SEARLE, J. R. (1980), << Minds, Brains and Programs >>, Behavioral and Brain Sciences, vol. 3, p. 417-458.

SEBEOK, T. A. (1976), Contributions to the Doctrine of Signs, Bloomington, Indiana University Press.

SILVEIRA, L. F. B. da (1993), << Peirce e a contemporanea filosofia da ciencia: uma dificil conversacao >>, Trans/form/acao, vol. 16, p. 63-82.

SILVEIRA, L. F. B. da (1996) Some Considerations about Semiotic Machines from the Point of View of Charles S. Peirce's Philosophy, MS DEPT of philosophy, Sao Paulo, Sao Paulo University, http://www.inm.de/kip/semiotic/silveira_article.html.

SOARE, R. I. (2009), << Turing Oracle Machines, Online Computing, and Three Displacements in Computability Theory >>, Annals of Pure and Applied Logic, vol. 160, no 3, p. 368-399.

SOARE, R. I. (1996), << Computability and Recursion >>, Bulletin of Symbolic Logic, vol. 2, no 3, p. 284-321.

SOUZA, C. S. de (1993), << The Semiotic Engineering of User Interface Languages >>, International Journal of Man-Machine Studies, vol. 39, no 5, p. 753-773.

SUPPES, P. (1967), << What is a Scientific Theory? >>, dans S. MORGENBESSER (dir.), Philosophy of Science Today, New York, Basic Books, p. 55-67.

TANAKA-ISHII, K. (2010), Semiotics of Programming, Cambridge, Cambridge University Press.

THAGARD, P. (1999), How Scientists Explain Disease, Princeton, Princeton University Press.

THAGARD, P. (2004), << Casual Inference in Legal Decision Making: Explanatory Coherence vs Bayesian Networks >>, Applied Artificial Intelligence I, vol. 18, p. 231-249.

THAGARD, P. (2012), The Cognitive Science of Science: Explanation, Discovery, and Conceptual Change, Cambridge, MIT Press.

TIJUS, C., J. BARCENILLA, B. C. LAVALETTE et J.-G. MEUNIER (2006), << The Design, Understanding and Usage of Pictograms >>, Improving the production and understanding of written documents in the work place, Amsterdam, Elsevier Publishers, p. 17-32.

TURING A. M. (1936), << On Computable Numbers, with an Application to the Entscheidungsproblem >>, Proceedings of the London Mathematical Society, Series 2, 42, p. 230-265.

TURING, A. M. (1939), << Systems of Logic Based on Ordinals >>, Proceedings of the London Mathematical Society, Series 2, 45, p. 161-228.

UNSWORTH, J. (2002), << What is Humanities Computing and What is it not? >>, Jahrbuch fur Computerphilologie, vol. 4, p. 71-83, http://computerphilologie.tu darmstadt.de/jg02/unsworth.html.

VALLVERDU I SEGURA, J. (2009), << Computational Epistemology and e-Science: A New Way of Thinking >>, Minds & Machines, vol. 19, p. 557-567.

Van DIJK, T. A. (1980), Macrostructures, Hillsdale, Lawrence Earlbaum Associates.

Van FRAASEN, B. C. (1970), << On the Extension of Beth's Semantics of Physical Theories >>, Philosophy of Science, vol. 37, no 3, p. 325-339.

Van FRAASEN, B. C. (1989), Laws and Symmetry, New York, Clarendon Press.

Van FRAASEN, B. C. (2008), Scientific Representation: Paradoxes of Perspectives, Oxford, Oxford University Press.

VICKERS, P., J. FAITH et N. ROSSITER (2013), << Understanding Visualization: A Formal Approach Using Category Theory and Semiotics >>, IEEE Transactions on Visualization and Computer Graphics, vol. 19, no 6. p. 1048-1061.

WOODHOUSE, R. (1803), The Principles of Analytical Calculation, Cambridge, Cambridge University Press.

Jean-Guy Meunier

Universite du Quebec a Montreal

meunier.jean-guy@uqam.ca

(1) << [I]n order to be meaningful, computers ought to be semiotic machines >> (Nadin, 1977). Nous traduisons.

(2) En anglais, on utilisera le terme << language >> pour << langue >>. Mais en francais, le terme << langage >> couvre plus que la << langue >>. Par exemple, on peut voir les regles de conversation comme des normes dans le langage, mais non des regles d'une langue. Et ce terme lui-meme est problematique, car il existe des systemes symboliques qui ne sont pas des langues, au sens strict de ce terme. Par exemple, les systemes symboliques mathematiques ou encore des systemes symboliques contenant des formes graphiques comme + *, des lignes, des cercles, des figures (graphes, plans, etc.).

(3) Cependant, un modele formel sera dit interprete si, dans une application a un domaine specifique, une semantique lui est ajoutee.

(4) On peut definir un systeme axiomatique comme un ensemble de formules symboliques liees par des liens deductifs regles et dont certaines des formules sont des axiomes et les autres, des theoremes. Un systeme axiomatique hilbertien presente des proprietes specifiques. Il doit avoir une description finie. Il est un systeme construit a partir d'un nombre fini d'axiomes et de regles d'inference.

(5) Dans la majorite de leur utilisation effective, ils ne definiront pas explicitement leurs axiomes ou postulats. Certains cependant le feront, par exemple: l'axiomatisation de l'arithmetique de Peano.

(6) Il peut exister d'autres types de modeles formels et qui ne sont pas fonctionnels. En effet, on peut construire un modele qui s'interesse a des relations non fonctionnelles entre elements, par exemple a des reseaux de personnes dans un groupe. Le modele sera relationnel. Mais ces types de relations ne seront pas ceux qui sont retenus dans un modele formel fonctionnel.

(7) Si cette propriete peut etre attribuee a toutes les formules du systeme, alors celui-ci est dit complet.

(8) La these Church-Turing etablit une relation d'equivalence extensionnelle entre la formulation de Church et de Turing: << La meme classe de fonctions partielles (et donc de fonctions totales) est obtenue dans chaque cas. >> (Rogers, 1967: 19)

(9) Voir l'analyse detaillee dans Woodhouse (1803: 12-15, 58).

(10) La decouverte de divers paradoxes, par exemple ceux internes a la theorie de l'actualite de l'infini chez Cantor, ont declenche de serieux doutes sur les fondements de cette calculabilite. Et les solutions logiques de Frege n'avaient pas reussi a convaincre les mathematiciens. Elles furent vite confrontees a des paradoxes mis en evidence par Russell et Whitehead. Ce qui apparaissait fonder un calcul se voyait soudainement confronte a de la contradiction interne.

(11) Il est le grand probleme que Hilbert avait propose en 1900 lors de sa conference au Congres international des mathematiciens de Paris. Il faut remarquer cependant qu'elle etait deja debattue par Dedekind.

(12) On retrouve des problemes analogues dans les logiques dites paraconsistantes; voir Chaitin, Doria et da Costa (2012).

(13) Comme l'ont montre plusieurs mathematiciens et informaticiens, plus particulierement Chaitin (1998), la non-decidabilite est partout dans les systemes formels.

(14) II faut se rappeler que Peirce a travaille sur la construction de machines logiques. Son pere avait tente d'installer une machine de Babbage a l'observatoire d'Albany. Et pendant son sejour a Johns Hopkins, il avait travaille sur une machine logique avec Allan Marquand, l'un de ses etudiants. Il demeure cependant critique quant a la possibilite de raisonnement pour cette machine, c'est-a-dire de sa capacite de resoudre certains problemes logiques et mathematiques. Voir Peirce (1976b: 625-632) et da Silveira (1993).

(15) Il faut nuancer cette formulation ici. Le fait pour une fonction d'etre realisee par une machine physique comme la machine de Turing ou sa variante, une machine de von Neumann, ou son equivalent, un ordinateur, garantit que la fonction est computable. Mais il n'en demeure pas moins que sur un plan intensionnel, l'ordinateur et la machine de Turing ne sont pas identiques a une fonction computationnelle. Ils lui sont simplement extensionnellement equivalents. Car il y plusieurs autres types de machines physiques qui peuvent effectuer une computation.

(16) https://en.wikipedia.org/wiki/Pentium_FDIV_bug.

Legende: Figure 1

Legende: Figure 2

Legende: Figure 3

Legende: Figure 4
COPYRIGHT 2018 University of Toronto Mississauga, Department of Language Studies
No portion of this article can be reproduced without the express written permission from the copyright holder.
Copyright 2018 Gale, Cengage Learning. All rights reserved.

Article Details
Printer friendly Cite/link Email Feedback
Author:Meunier, Jean-Guy
Publication:Applied Semiotics/Semiotique applique
Date:Feb 1, 2018
Words:13587
Previous Article:POUR UNE METHODE DIALECTIQUE ET EXPLORATOIRE: DE LA SEMIOTIQUE GENERATIVE A LA SEMIOTIQUE QUANTIQUE.
Next Article:UN ALGORITHME POUR EXTRAIRE LES SEGMENTS QUI EXPRIMENT UN: CONCEPT--PREMIERES EXPERIMENTATIONS.
Topics:

Terms of use | Privacy policy | Copyright © 2019 Farlex, Inc. | Feedback | For webmasters