Re: [EGD-discu] [Vote] Touche morte + espace

[ Thread Index | Date Index | More ergodis.org/discussions Archives ]



Du fait que les caractères précomposés sont déjà super bien accessibles, les
utilisateurs garderont le réflexe de taper autant de caractères précomposés que
possible, et de ne recourir aux diacritiques combinants que quand ils n’ont pas
le choix.

Je me demande… Oui, pour 99% des cas… mais il y a les tapes accidentelles, pas si rares, et puis tous ceux qui trouvent toujours un moyen d’utiliser ce qui est facile d’accès pour un usage différent de ce qui est prévu. Et puis, je ne suis pas sûr que certains ne prennent pas plaisir à vouloir cette méthode pour tout.


Dans ce sens, la stratégie des deux trois
caractères informatiques par {espace} et des combinants par {point} est totalement
ratée, car d’une elle complique la programmation, et de deux elle complique
l’écriture de nombreuses langues africaines, pourtant supportées au niveau des
lettres de base.

Je ne vois pas en quoi ça “complique” de mettre sur le point plutôt que sur Espace. Est-ce seulement une question d’accessibilité (quoique le point soit très accessible) ou y a-t-il quelque chose qui m’échappe ?


Certes, si tous les pays du monde
concernés par les caractères latins composés avaient fait autant de lobbying que
le Vietnam, on pourrait peut-être aujourd’hui tout écrire en précomposés, si
vraiment il y avait assez de place,

En fait je pensais plutôt à l’autre solution. Tout faire avec du combinant. Taper “é” sur le clavier n’aurait été qu’un raccourci pour créer en interne un chaîne e + ´. Ainsi la gestion des chaînes eût été unifiée. Et les langages qui savent gérer l’Unicode aurait directement implémenté des fonctions où len("déjà") == 4, bien que tout soit fait avec des combinants.


La normalisation n’est qu’une rustine.

Pourquoi ?

Parce que c’est juste pour là pour basculer d’une méthodologie à une autre dans un système bicéphale.
Parce que ça ne permet pas de combler tous les besoins.


Tout à fait, mais si la tâche consiste à travailler sur du français ou d’autres
langues européennes hors lituanien avec marques tonales, le problème est à la source
car ces langues ne sont pas censées être saisies avec des diacritiques combinants,

Mais, justement, certains, pas encore nombreux, se servent de ça pour écrire en français. C’est en 2010 la première fois qu’on m’a contacté pour me parler des combinants (je ne crois pas en avoir entendu parler avant ça) qui posaient problème pour la reconnaissance orthographique des mots écrits avec eux. Il a été facile de corriger le problème dans le correcteur orthographique qui effectue en interne une conversion des caractères combinés en précomposés.


Notons par ailleurs que la normalisation ne résout pas tous les
problèmes. La position d’un motif détecté par une expression régulière
dans un texte normalisé ne correspond pas à la position de ce même motif
dans le texte original. Autrement dit, même si on peut traiter le texte
pour analyse, les résultats renvoyés ne correspondent pas au texte à
traiter en ce qui concerne les positions.

C’est sûr, mais est-ce vraiment important ? Je n’ai pas de cas pratique en tête,
j’imagine qu’il faut corriger le texte d’origine sans y toucher par ailleurs, alors
oui ça va être dur. Mais ça me semble un cas limite.

Je ne voulais pas rentrer dans le détail, mais puisqu’il le faut…

Je conçois Grammalecte, un correcteur grammatical (CG) pour LibreOffice. En l’état des choses, je ne peux pas proposer une correction grammaticale correcte si on écrit avec des caractères combinants.

Examinons pourquoi:
Le CG, dans LibreOffice, n’est qu’un répondeur. LibreOffice lui fournit du texte à examiner et attend en retour une liste d’erreurs contenant chacune un message, une position, une longueur et éventuellement des suggestions et une URL pointant sur des informations hors-ligne. Mettons que le texte qui parvient au CG contient des combinants. Si le CG le normalise, les erreurs qu’il détectera ne seront pas placées correctement, puisque la chaîne sera modifiée, attendu que cette normalisation ne peut se faire qu’en interne (le CG ne peut que suggérer, il n’a aucun droit de réécrire le texte du traitement de texte). Pareillement, si la zone d’erreur contient des combinants, le CG ne renverra pas la bonne longueur de texte à souligner. Autrement dit, on peut trouver les erreurs, mais leurs position et longueur seront inadéquates.
Donc, normaliser, dans LO, ce n’est pas possible.
— Solution 1: Réécrire complètement le CG. Il n’est même pas certain que ça résoudrait tous les problèmes. Hors de question. — Solution 2: Réécrire toutes les regex, pour tenir compte des combinants (ces regex sont parfois déjà bien compliquées). Envisageable, mais pas le temps et vraiment pas motivé. C’est une usine à gaz. — Solution 3: désactiver localement le CG s’il détecte des combinants dans un paragraphe. Envisageable, mais comment le signaler à l’utilisateur? C’est quand même mieux que des signalements mal placés. — Solution 4: fournir un moyen de transformer en amont les caractères combinés en précomposés via le formateur de texte (qui, lui, peut modifier le texte écrit à sa guise). Envisageable, mais loin d’être idéal, car ce n’est pas une solution automatisée et invisible. — Solution 5: il y a peut-être une solution intermédiaire, mais le diable est dans les détails, je ne suis pas sûr que ça fonctionnerait, il faudrait que je prenne le temps de m’y attarder. Comme ça m’ennuie, je n’y pense guère. Quoi qu’il en soit, les combinants compliquent la vie.

Le problème se pose pareillement pour le CG en mode serveur. S’il reçoit du texte avec des combinants et qu’on lui demande de rendre des erreurs avec leur position, normaliser n’est pas possible. Les combinants comptent dans la longueur des chaînes, on ne peut pas les substituer comme ça sans modifier ces longueurs de chaînes. Il faut faire avec.

Voilà pour l’exemple où on ne peut pas normaliser juste pour se faire plaisir. Je ne suis certainement pas le seul qui voit ces choses d’un œil mauvais.


C’est vrai, je ne l’avais pas remarqué. Donc en fait le bépo tente de se racheter
de son esprit de rupture avec l’azerty en gardant des caractères informatiques
par 'touche morte, espace' (et les chiffres en Maj) ? Je pense surtout à beaucoup
de symboles qu’on aurait pu laisser, mais ça ne serait plus le bépo, ce serait
l’asertuniop’ ou quelque chose comme ça. Pour être vraiment le bépo, le bépo devrait
maintenant ergonomiser TOUS les caractères informatiques qui ne le sont pas encore.
Mais pas en les proposant par 'touche morte, espace'…

Je ne suis pas sûr de comprendre pleinement cette remarque. Je n’ai pas forcément suivi toutes les conversations. En ce qui concerne les caractères informatiques sur des positions moins favorables, les gens sont très divisés… je ne vois pas comment remédier à ça.


Ce qui est actuellement relégué dans des « coins obscurs », ce sont les caractères
informatiques proposés par 'touche morte, espace', le ^ et le `. Une fois qu’ils
seront sur des positions adaptées à leur usage, la position en accès direct sur
la barre d’espace sera libre pour éviter de reléguer les combinants de la barre
d’espace vers les touches point et virgule.

En ce qui me concerne, ce n’est pas du tout pour ces raisons que je ne veux pas des combinants sur Espace. Ça n’a aucun rapport. Je suis opposé à l’idée de trop faciliter leur accès intrinsèquement, indépendamment de toute autre considération.


alors qu’on voudrait juste avoir un Espace avec un comportement
normal et mettre les combinants sur une place presque aussi correcte,

Bien sûr que ce comportement est encore “normal”.

J’aurais dû écrire “usuel”, ou “attendu”, parce que connu.


Olivier (Flamme)


--
Pour ne plus recevoir les messages de cette liste de discussion, envoyez un courriel avec pour destinataire discussions-REQUEST@xxxxxxxxxxx et pour sujet "unsubscribe".


Mail converted by MHonArc 2.6.19+ http://listengine.tuxfamily.org/