Jean-Louis Brugeille

 

Ministère de l’Education nationale, chargé de mission national LSF

Colloque Langue des signes, grammaire et iconicité

Résumé de la conférence

Depuis les débuts de la recherche sur la LSF, les savoirs linguistiques ont progressé et continuent à être développés et discutés. Cette tendance n’offre toutefois pas un cadre favorable à la didactique de la langue des signes et la pédagogie (monde de la formation d’adultes, pratiques effectives des enseignants, etc.). Nous nous centrerons dans cette contribution sur l’exemple de l’étude des pratiques professionnelles des enseignants, notamment lorsqu’elles sont confrontées aux terminologies relatives à la grammaire de la LSF dans les programmes officiels de LSF et à la linguistique dans les articles universitaires et les ouvrages en la matière. En cause, un obstacle majeur se dresse : la langue française n’est pas la langue première chez la plupart des enseignants alors que ces savoirs sont produits dans cette langue. 

A quoi peuvent servir ces savoirs produits ? En quoi ces savoirs peuvent-ils être des ressources pour les enseignants ?

Les praticiens ont bien sûr une connaissance de leurs propres pratiques. Mais tous n’en ont pas la même lecture, la même compréhension et le même recul. D’autres savoirs sont « cachés » dans les pratiques et ne peuvent être toujours l’objet de déclarations de la part des pédagogues. Malgré tout, ceux-ci ont besoin de faire un détour par des savoirs scientifiques afin d’éclairer un certain nombre de décisions de manière réfléchie et d’améliorer éventuellement leurs pratiques.

Colloque Ecriture(s) de la langue des signes

Diaporama de la présentation : PPT JL Brugeille

Conférence

Depuis 20 ans, j’enseigne la langue des signes en collège et lycée, principalement à des sourds.

C’était avant qu’on ait beaucoup d’ordinateurs à disposition, c’était donc avec un matériel rudimentaire, caméra, magnétoscope. Il y a eu une grosse évolution par la webcam etc.

Ce que je vais vous présenter, c’est plus axé sur la langue des signes et la vidéo par rapport au fait de garder une trace de quelque chose. C’est de garder, d’inscrire une trace sur un support.

 

La grande question : par rapport à un travail en face à face, en langue des signes, comment en garder une trace avec un élève sourd, c’est quelque chose d’éphémère, il faut créer des outils pour pouvoir réussir à conserver cette trace. Pour ne pas être obligé de passer par un texte de français, de faire une transcription d’une langue à l’autre. Et une fois que l’élève retourne chez lui, qu’il ait un support de réflexion, pour pouvoir se rappeler.

 

Du coup, j’étais obligé à chaque fois de passer par le français, la prise de note. Mais pour l’élève, ça pouvait poser un problème. Et c’est vrai que la langue des signes en vidéo permettait de pallier à tous ces problèmes. Le premier objectif n’était pas de garder une trace mais d’avoir un contrôle sur sa propre langue des signes, mais en approfondissant, ça a permis de remplir plus de fonctions de l’écrit en général.

 

Il y a Auguste Bebian qui a travaillé dessus et on peut lui rendre hommage. Avant, au niveau de la langue des signes vidéo, voilà, c’est le signe utilisé, c’est quelqu’un de seul qui signe devant une caméra, ce que l’on appelle la LS-vidéo analogie.

J’ai changé le signe, je l’ai modifié, il y a la possibilité d’avoir différentes fenêtres sur le même écran, avec différents discours en même temps. Ce  qui demande beaucoup de dextérité au niveau du regard.  C’est devenu la LS-vidéo numérique.

Par rapport à garder une trace de la langue des signes, il y a l’écriture qui est définie depuis très longtemps, c’est la forme que peut prendre une langue sur un support avec différentes fonctions.

 

L’écriture permet de garder une trace sur un support, de revenir en arrière, avancer, c’est quelque chose de fixe, mais que l’on peut manipuler.

 

Je vous parlais de LSF numérique, voilà ce que ça peut représenter. C’est un support que j’utilise en classe, un support didactique qui permet de travailler avec les élèves.

 

Ce n’est pas quelque chose de diffusé, mais ça répond à un besoin concret que j’avais pour travailler avec mes élèves. Il ne s’agit pas de lire tout dans tous les sens, je vais vous expliquer. Bien sûr, les élèves avec lesquels je travaille connaissent les règles d’utilisation.

 

Il se pose le problème de la lecture, c’est-à-dire où regarder, si l’information passe ou pas. Donc j’ai testé plusieurs choses avec les élèves. J’ai fait ça sous forme de jeu. Il y avait une centaine de personnes sourdes de 15 à 75 ans, on jouait sur ces 5 vignettes, il fallait chercher l’intrus, quatre communes et une qui n’avait rien à voir Et comme ça, je testais les réactions de ce public, par rapport à la lecture de ce système. Du coup, j’attendais et personne n’arrivait à trouver l’intrus parmi toutes ces vidéos. Ce qui m’a quand même surpris. Ils arrivaient à trouver, il n’y avait pas à trouver de réactions de colère, donc je me suis dit que j’étais sur la bonne voie.

J’obtenais des réactions différentes selon les publics sourd et entendant. Et en appuyant sur les théories de Cyril Courtin, chercheur en cognition, lui-même sourd, qui travaille à Paris. Il disait que par rapport au fonctionnement du cerveau des sourds et des entendants, en le comparant… Il y avait beaucoup de recherches faites chez les entendants, et lui essayait de voir les différences etc.

Donc, normalement, vous avez la Fovéa, au centre de la pupille et il y a beaucoup plus de connexions reliées au cerveau, alors qu’en périphérie de la rétine, vous avez moins de cellule. Donc la vision est focalisée efficacement au centre.

L’organisation pour les sourd est différentes, c’est-à-dire plus de cellule en périphérie que sur la fovéa.

Mais cette vision périphérique n’est pas non plus d’une complète netteté. Pour les entendants, la périphérie est floue. Vous remarquez d’ailleurs qu’un entendant va suivre les mains d’un sourd qui signe, mais un sourd va plus être dans la globalité de l’image.

Donc je vais vous proposer le même jeu, quel est l’intrus ? Je vous laisse un minute pour y réfléchir. Ça veut dire, si je reviens aux fonctions de l’écrit, de dire que c’est un support définitif. Dans 20 ans, on pourra toujours avoir ce même support. C’est une fonction qui est la même que pour le français écrit par exemple.

Une des fonctions de l’écrit c’est que c’est une fonction qui n’est pas du face à face. Le scripteur et celui qui va lire n’ont pas le contexte. Donc il faut expliciter, donner toutes les informations, et ça se fait en deux étapes. Il réfléchit à ce qu’il va écrire et ensuite, il met en forme. Il remet au lecteur qui ne verra pas le brouillon. On parle d’abord du scripteur et maintenant, on va voir ce qui se passe au niveau de la langue des signes vidéo.

J’ai choisi un exemple, je prépare ce que je vais dire face à la caméra. Ensuite, je montre quelque chose qui est un produit fini propre et la personne qui va lire la vidéo, ne voit pas tout le brouillon, la formation, la création de cette chose.

Et en fait, quelqu’un qui écrit, en général ne montre pas non plus son brouillon.

 

Troisième fonction de l’écrit : c’est une situation qui n’est pas du face à face. On écrit pour quelqu’un qu’on ne connaît pas forcément. Il faut donner le maximum d’information, car la personne ensuite qui verra la production sera hors contexte. Donc il faut imaginer toutes les difficultés que peut avoir le lecteur et donner le maximum d’information.

Il y a une expression en langue des signes, sur un site, c’est une personne qui a réfléchit avant, qui essaie de donner le maximum d’information à quelqu’un qui va regarder la vidéo. Il va essayer de donner toutes les informations pour qu’elles soient le plus denses, compréhensibles possibles.

Comme, quand j’ai des élèves et que je leur demande de se filmer. Quand on  est  en  situation  directe,  les  élèves  peuvent  se  tromper, reprendre ce qu’ils ont dit etc.

Mais quand c’est en vidéo, quelque fois, je ne comprends pas tout, donc je peux leur demander plus d’informations, pour qu’ils comprennent qu’on fait quelque chose pour quelqu’un, qui n’est pas là, qui ne peut pas deviner les choses.

 

Quatrième fonction : la personne qui regarde la vidéo ne voit pas la façon dont ça a été construit, il ne peut pas changer la vidéo. Donc il faut qu’il y ait le maximum d’information et quand ce n’est pas les cas pour les élèves, je les renvoie pour qu’ils refassent une vidéo compréhensible hors contexte.

 

Par rapport à la quatrième fonction, quand on est en face à face, on peut réagir, mais aussi quand on écrit, on peut renvoyer un texte. Est-ce qu’on peut le faire en LS-vidéo, avoir un droit de réponse ?

C’est un site américain très connu qui existe depuis plus de 10 ans maintenant, en ASL.

 

Mais je vous explique : quelqu’un peut argumenter sur un thème, et il peut y avoir d’autres personnes qui interviennent pour discuter. Et il y a une possibilité de… Il y a eu 103 réactions. C’est incroyable. C’est un site qu’on n’a pas en France. Websourd fait de la formation, raconte des histoires, etc., c’est pas mal, c’est vrai, ça commence. Sur Facebook, on peut avoir des choses qui commencent à ressembler à ça. Mais un site dédié, c’est vraiment pas mal.

Il peut vraiment y avoir des échanges comme un forum. Là, on peut avoir des échanges en langue des signes.

 

La cinquième fonction : dans l’écrit, il y a une organisation qui est propre à l’écrit avec une logique qui se décline en paragraphes,  en  différente  partie.  En  LS-vidéo,  a-t-on  la  même chose ? J’espère que le Power Point va fonctionner car c’est un outil visuel qui fonctionne très bien. Et on peut ajouter un certain nombre d’éléments, on peut par exemple décaler un paragraphe, insérer une vignette… Donc effectivement, il y a des pour et des contre, des débats autour de l’organisation de l’écrit en français, mais on peut aussi avoir des débats autour de : comment organiser un espace où il y a de la LS-vidéo, est-ce qu’on met en continuité ou en simultané ? C’est toute une réflexion qu’on a, mais en tout cas, il y a une organisation qui permet la correction et la compréhension de tout cela.

Du coup, sachant que dans cette langue des signes vidéo présentée à l’écran, il y a toute une organisation, on comprend de manière non directe qu’il y a aussi à l’écrit aussi une autre organisation.

Sur un site Internet, on pourra retrouver différents paragraphes comme

on peut retrouver une organisation écrite dans l’écrit. On peut retrouver des équivalences.

La sixième fonction de l’écrit, c’est lorsqu’on fait un écrit, un journal par exemple, on a le titre écrit plus gros que l’article, des lettres en italique… Est-ce qu’il y aurait un code équivalent en langue des signes vidéo ? Il y a par exemple un encadré rouge qui indique que c’est une consigne, donc l’élève va d’abord regarder l’encadré rouge, il va chercher à y répondre, puis il retrouvera un fond bleu qui serait la réponse correspondant à la consigne, à ce qu’il doit faire, et il va répondre grâce à sa vignette. Le fond sera alors noir ou blanc, blanc si c’est une leçon. Il y a un code couleur. L’important, c’est avoir une fenêtre principale et d’autres fenêtres  moins  importantes.  Il y  a  une  pagination  et  une organisation de l’espace de l’écran qui est le pendant de ce qui est dans la page écrite.

Des vidéos en boucle, c’est tout à fait possible. On peut aussi accéder à une vidéo en cliquant dessus. Chacun a sa stratégie propre de lecture. Il ne faut surtout pas imposer, dire qu’il faut faire telle chose ou interdire telle autre chose. En fait, tout est possible. Ça permet une certaine souplesse dans l’accès au message qui est figé.

Comme en français écrit, le regard se porte librement à tout endroit sur le journal, par exemple. On peut avoir une lecture rapide, une lecture plus exhaustive et plus lente. Donc il faut laisser au lecteur la possibilité de lire lentement ou rapidement les vidéos.

Qu’en est-il des tableaux,  par  exemple ?  Parce qu’il faut au moins trouver l’équivalent des tableaux à double entrée. Est-ce qu’on va avoir la même chose avec la langue des signes vidéo ?

Tout à l’heure, je vais vous parler des codes couleur. Vous le voyez à l’écran. La consigne avec un encadré rouge. Le bleu pour une aide pour répondre. L’élève a quinze minutes face à un écran comme ça. Je les laisse libres de répondre à cet exercice, avec une réponse qu’ils m’envoient.

On peut aussi, si on est gêné par toutes ces vidéos qui fonctionnent en même temps, donc on peut aussi les arrêter et regarder les vidéos les unes après les autres. Mais en général, ils ne sont pas gênés.

Est-ce qu’on peut faire un tableau ? Ajouter des dessins ? Ajouter des éléments ?

Là, par exemple, vous avez un élément à un document réel sur lequel on va travailler et sur lequel on a ajouté des informations.

Là, un tableau à double entrée, à partir d’une ligne et d’une colonne. On arrive ainsi à l’intersection à une vignette. Et avec les codes couleur, tous les outils informatiques, tout est possible,

Il faut une structuration très ordonnée. Et avec l’écrit, l’évolution de la langue qui est beaucoup plus lent parce qu’il y a un contrôle de l’écrit plus important. Ça veut dire qu’il y a une standardisation plus importante de l’écrit.  C’est propre à l’écrit.  Il peut y avoir beaucoup de commentaires, beaucoup de choses qui font que beaucoup de gens évitent l’écrit parce qu’il y a quelque chose de l’ordre de… L’écrit, en fait, a une telle valeur aujourd’hui, au niveau juridique, c’est quelque chose

qui est extrêmement puissant, dans les journaux par exemple, si on insulte ou si on se moque de quelqu’un, on peut facilement, à partir d’une trace écrite, porter plainte par exemple. Et est-ce que la langue des signes vidéo aurait la même valeur juridique ? Pour l’instant, on n’a pas encore vu ça. Depuis la loi du 11 février 2005, la langue des signes est reconnue, mais est-ce que juridiquement, on regarde la langue des signes vidéo de la même manière que l’écrit ?

Je pense que vous êtes au courant de ce signe-là… Il y a deux grandes villes, la première fait ce signe, et une autre ville a eu l’idée de créer le même signe, en même temps, par hasard, sans l’apprendre de l’autre.

La première ville porte plainte contre la seconde parce que la seconde lui aurait volé ce signe-là, qui est effectivement sa création. La première ville poursuit la seconde parce qu’elle aurait volé ce signe-là. Comment   un avocat pourrait faire ? Est-ce qu’on va décortiquer la structure des tensions musculaires ? La configuration de la main ? Que l’une ou l’autre des deux  parties gagne, il est intéressant de voir que ça nous renvoie à l’une ou l’autre fonction de l’écrit.

On a vu cette fonction de l’écrit, et on a vu qu’à chaque fois, la langue des signes vidéo est très proche des fonctions qui sont les fonctions de l’écrit.

Donc on a parlé de la trace, et maintenant, on va parler du support. Théoriquement, un document, avant même de parler de langue des signes  vidéo,  des  chercheurs  ont  proposé  six  axes  pour  définir  un document. Donc un support, qui peut être du papier, qui peut être un support d’enregistrement magnétique vidéo ; dans ce support, il y a une structure qui peut être linéaire ou bien non linéaire. Par exemple, le fait qu’on regarde un livre, qu’on le lise du début à la fin de façon linéaire ou une  affiche  avec  un  regard  qui  se  déplace  librement  sur  l’espace d’affichage ; la forme du discours (argumentatif, explicatif, dialogue…) ; comment le message nous parvient : est-ce que c’est une langue ? Est-ce  que c’est quelque  chose  de  l’ordre du  dessin ? Est-ce  que  c’est analogique comme une photo ? Une photo, c’est analogique parce que ça colle au réel.

Quel est le canal ? Est-ce que l’information passe par le toucher ? Le visuel ? L’auditif ?

Comment est-ce qu’on entre dans cette information-là ? Comment j’ai accès  à  cette  information-là ?  Est-ce  qu’elle  est  accessible  à  tous ? Accessible seulement à la personne qui a accès au document ? On va essayer par exemple, à partir de cet exemple papier, de voir où se situent ces documents. Là, on a un papier, on peut tout avoir comme discours, on peut avoir une langue, ça c’est le français, c’est visuel, et l’accès est individuel parce que je suis seul devant mon livre.

La langue des signes vidéo, comment s’inscrit-elle dans ce schéma-là ? Voilà la langue des signes numérique, donc où se place-t-elle dans ces différents axes ?

C’est un support électronique qui peut être lu au niveau de sa structure de façon linéaire avec un ordre précis, mais qui peut être lu aussi de façon non linéaire. Le lecteur est libre face à l’objet. On peut avoir tout type de discours, on peut avoir de la linguistique, la langue des signes, mais aussi des illustrations, des dessins, ici des flèches, c’est de l’illustratif, ça peut être de l’analogique, vous voyez une personne qui est là, une personne réelle, le canal est visuel, l’accès peut être hors ligne pour moi ou en ligne, accessible à tout le monde.

Donc voilà : la LS vidéo se place sur les différents axes qui définissent un support. Je reviens un petit peu là-dessus : c’est moi le professeur, je me filme, je filme les consignes, ce n’est pas un travail évident. Je suis obligé de me dire : je suis professeur, il faut que je me filme…Quand je suis face à la caméra, je dois prendre beaucoup de choses en compte. Il y a 18 ans, quand j’ai commencé, c’était très difficile. Je me disais : les élèves vont voir ça, il faut que ça soit de la qualité, je suis quand même le professeur, il faut que je leur donne une certaine image.

 

Je  ne  peux  pas  non  plus  demander  aux  élèves  de  me  faire  une production vidéo si je ne le fais pas non plus. Les élèves utilisent plus facilement l’outil caméra puisqu’ils ont grandi avec l’outil Internet. Ils n’ont plus la peur face à la caméra qu’on pouvait avoir avant.

 

Il y a de plus en plus de vidéos qui sont diffusées, sur Facebook… ça a une certaine valeur, une authenticité, ce sont des documents authentiques qui viennent de différents auteurs et endroits avec des thèmes complètement différents. C’est vraiment en plein essor depuis cinq ans, de se répandre. La LS vidéo est en train de s’étendre. Vous avez Facebook, mais aussi d’autres sites. Ça permet aux gens de s’exprimer et de créer un document authentique.

C’est vrai que ça permet les échanges. Les gens peuvent se répondre. Il y a une chose qu’il ne faut pas oublier aussi par rapport aux élèves, c’est que par exemple, j’ai un élève qui n’a jamais mis un pied aux Etats-Unis mais qui maîtrise très bien la langue des signes américaine, juste en regardant des vidéos en ASL. C’est ainsi qu’il a appris la ASL.

On avait un document authentique, un document didactique, et les deux ensemble peuvent devenir un document didactisé. Le gros problème, c’est que je suis obligé de me filmer sans arrêt, je suis sur toutes les vidéos mille fois reproduites. L’intérêt, c’est aussi de prendre  d’autres vidéos, mais il se pose le problème du droit à l’image. On peut se demander si c’est vraiment utile, si on a le droit de les utiliser…

Après, de vraies productions en langue des signes montrées, on parlait de la valeur des témoignages, des vieux sourds dont il faut garder le vécu, une trace, effectivement, on a des vidéos mais on n’a pas ce travail de traduction vers le français.

Alors on passe du français vers la langue des signes. Pourquoi est-ce que c’est le français en premier ? Est-ce que ça sous-entend que le français écrit a plus de valeur que la langue des signes ? Je ne sais pas.

Le problème avec la langue des signes vidéo, c’est qu’il n’y a pas d’anonymat. On est un peu coincé par rapport à ça. C’est toujours une personne réelle.

Donc la réflexion est en cours par rapport aux avatars signeurs. Peut- être que plus tard, on pourra créer le signeur ou le faire dans un programme, c’est-à-dire le programmer pour programmer tout ce qu’il a à dire.

On a le premier exemple, là, d’avatar. Ça part d’une personne en chair et en OS, et l’image est transformée de façon numérique pour obtenir un avatar. A la fin, on ne sait pas qui c’est. Mais il y a aussi la possibilité de programmer tout ce que l’on veut faire dire à l’avatar. Là, c’est de l’ASL.

Dans certaines villes, ça commence à se développer, dans les gares, vous avez des panneaux d’affichage avec un avatar signeur. Ça commence déjà à faire quelques petites années, quatre ou cinq ans.

Mais parfois, il y a des textes pré-formés de façon automatique, et par exemple, juste le nom de la ville à rajouter ou une information à noter. Tout est pré-enregistré, puis on passe par le biais d’un avatar, et dans le discours de cet avatar-là, on peut avoir des informations qui changent, que l’on reprogramme, qu’on fait évoluer.

Donc là, ce n’est plus une personne en chair et en os qui est visible mais un avatar. C’est un travail qui est en cours mis avec une petite équipe. S’il y avait plus de monde, on en serait plus loin.

Il y a toutes les manières d’utiliser la langue des signes quand on est en face à face, par contre, la langue des signes vidéo, qui est une langue des signes qui est à un autre niveau, car il y a un travail avant de brouillon, et plus des personnes vont voir cette langue des signes vidéo, qui est de qualité, plus le niveau de langue des signes en général va pouvoir évoluer et les gens vont pouvoir progresser dans cette langue.

La langue des signes en face à face et la langue des signes vidéo, je suis assez convaincue que la langue des signes vidéo est très proche des fonctions de l’écrit, et je pense qu’il y a une assez grande fidélité, par rapport à l’oral d’une langue vocale et son écrit.