Technologie de saisie de texte XR

VR/AR/MR (collectivement appelés XR) devrait devenir la plate-forme informatique de nouvelle génération après les ordinateurs personnels et les téléphones mobiles, et l'entrée matérielle du métaverse.

Ces dernières années, XR s'est développé rapidement.Il peut non seulement être appliqué aux jeux, au cinéma et à la télévision, mais a également de grandes perspectives de développement dans les domaines militaire, médical, bureautique, éducatif et autres. Cependant, par rapport à la puissante technologie d'affichage de XR, sa technologie de saisie de texte est loin derrière en termes d'efficacité et de flexibilité.

La saisie de texte est une fonction de base d'un ordinateur. La saisie sur un ordinateur personnel repose sur un clavier physique, tandis que la saisie sur un téléphone mobile repose sur un clavier logiciel sur un écran tactile. Pour devenir une plate-forme informatique omniprésente, XR doit résoudre la demande de base de la saisie de texte. Les chercheurs en interaction homme-machine ont développé une variété de technologies de typage orientées XR, mais chacune a ses propres lacunes et aucune technologie d'entrée grand public n'a encore émergé. La classification suivante présente plusieurs technologies de saisie de texte XR représentatives.

Saisie manuelle périphérique

clavier physique

Profitant de la familiarité des gens avec les claviers physiques, les chercheurs ont appliqué un clavier QWERTY physique ou ses variantes au XR comme périphérique d'entrée. Mais parce que dans les applications XR, il est généralement impossible (ou peu pratique) de voir le clavier physique et les mains, certains chercheurs ont proposé des méthodes pour mélanger la vidéo du clavier et de la main dans l'affichage, et certains chercheurs utilisent la technologie de suivi optique pour suivre le clavier et les mains. .main pour fournir un retour visuel.

Knierim et al (2018)

Ces méthodes prennent généralement en charge la saisie de texte rapide et riche, mais le clavier physique nécessite une surface plane pour le support et est trop encombrant à transporter, ce qui limite l'utilisation du XR. De plus, la plupart des claviers physiques s'appuient sur la technologie de suivi pour obtenir de meilleures performances de frappe, ce qui est également difficile à mettre en œuvre.

poignée traditionnelle

Les télécommandes TV, les contrôleurs de jeu traditionnels, etc. peuvent réaliser une saisie de texte simple, et les utilisateurs doivent sélectionner des lettres ou des symboles via plusieurs touches discrètes. Ces contrôleurs traditionnels sont plus portables que les claviers physiques de taille normale et ne nécessitent pas de surface de support. Mais cette méthode ne peut réaliser que la saisie de texte la plus simple, et plusieurs frappes discrètes entraîneront une vitesse de saisie très lente.

De plus, les chercheurs ont divisé le clavier virtuel en plusieurs régions pour des expériences de frappe. Par exemple, PizzaText utilise les deux manettes du contrôleur de jeu pour sélectionner dans une disposition de clavier circulaire, et Min et al divisent la disposition du clavier en 3*3 cellules et sélectionnent les touches en pointant sur les cellules.

PizzaText(Yu等),2018)

Bien que la poignée soit facile à apprendre à taper dans XR, la vitesse de saisie de cette méthode est très lente. Elle convient principalement aux tâches telles que la sélection de touches avec une faible difficulté et ne convient pas à la saisie de texte complexe et à grande échelle dans les applications. comme bureau.

écran tactile

La saisie de texte sur un écran tactile ou un pavé tactile transpose les interactions téléphoniques familières dans la réalité virtuelle. BlindType, par exemple, a exploré la saisie à l'aveugle avec un pouce sur un trackpad, où l'utilisateur tape sur un écran qui émule un clavier QWERTY tout en recevant un retour de texte sur l'écran. De telles approches alignent généralement une interface virtuelle avec un écran tactile (tel qu'un smartphone) pour la saisie.

BlindType (Lu等, 2017)

Cependant, ces méthodes nécessitent généralement un écran tactile ou un pavé tactile supplémentaire de grande taille comme périphérique d'entrée, ce qui rend l'utilisation de XR peu pratique. De plus, la saisie sur écran tactile est basée sur un retour visuel indirect, ce qui nécessite une attention supplémentaire pour suivre l'état actuel, ce qui n'est pas intuitif et efficace par rapport au retour tactile.

Poignée 6DoF

La plupart des casques VR grand public, tels que Oculus Quest, Pico, etc., prennent en charge l'utilisation du rayon pointé par la poignée pour sélectionner des lettres. Cette méthode de saisie est très intuitive et facile à apprendre, mais cette méthode de saisie nécessite une attention visuelle continue et un contrôle précis de la poignée, et l'utilisateur se sentira évidemment fatigué lors de la frappe pendant une longue période, elle ne convient donc pas aux textes complexes et à grande échelle. Tâche d'entrée.

Suivi des mains avec des caméras montées sur la tête

Certaines lunettes VR/AR (telles que Oculus Quest, HoloLens) utilisent la technologie de suivi des gestes basée sur la vision pour suivre la main de l'utilisateur.Lors de la frappe, un clavier virtuel sera projeté dans le champ de vision de l'utilisateur, et les doigts de l'utilisateur seront suivis dans en temps réel par la caméra dans les lunettes.Le "toucher" du doigt sur le clavier virtuel réalise la saisie.

Clavier virtuel pour HoloLens2

Cette méthode utilise une caméra frontale intégrée pour obtenir une saisie tactile similaire à celle d'un téléphone mobile, mais des erreurs peuvent se produire en cas d'occlusion ou de mouvement rapide des doigts, et la technologie de suivi optique qu'elle utilise est relativement coûteuse. De plus, le fonctionnement de la suspension à long terme est susceptible de provoquer une fatigue de l'utilisateur.

caméra externe

Vautour (Markussen等, 2014)

Des caméras portées sur le corps ou externes peuvent être utilisées pour reconnaître les mouvements ou les gestes de la main, permettant ainsi la saisie XR. Des méthodes telles que TypeNet permettent de taper rapidement sur une surface plane devant la caméra grâce au suivi optique Ces méthodes nécessitent de taper sur un clavier QWERTY virtuel, en poursuivant les habitudes de frappe de l'utilisateur. OmniTouch est un système de détection de profondeur et de projection porté à l'épaule qui permet la saisie de texte sur des surfaces planes telles que la paume. D'autres méthodes réalisent la saisie de texte suspendu en reconnaissant les gestes. Par exemple, Vulture suit les doigts pincés et sort le mot correspondant le mieux en fonction de la trajectoire de mouvement des doigts dans les airs.

La méthode de saisie de texte basée sur une caméra externe ne repose pas sur un clavier physique, ce qui rend la saisie de texte plus flexible. Cependant, des études ont montré que : (1) les utilisateurs peuvent être limités en vitesse en raison d'erreurs de suivi lors de mouvements rapides, et (2) les utilisateurs peuvent se fatiguer après une saisie prolongée à la main. Étant donné que le suivi des doigts par caméra est toujours un problème difficile, la plupart de ces études utilisent des techniques de suivi optique coûteuses, ce qui rend ces méthodes moins pratiques. Par rapport à la méthode de suivi des gestes des lunettes VR, la méthode de saisie basée sur une caméra externe est plus gênante, car un dispositif de suivi plus grand doit être transporté en plus.

Saisie manuelle portable

Il s'agit de taper avec un capteur porté à la main.

Gants

Les gants en tant que dispositifs de détection interactifs portables sont un moyen de saisir du texte. KITTY et DigiTouch utilisent des chocs électroniques ou des zones partiellement conductrices sur le gant pour détecter les événements tactiles et réaliser des interactions complexes avec les doigts. Argot est un gant portable à une main avec 15 boutons, qui réalise une interaction de frappe grâce à une réponse magnétique combinée à un retour tactile.

Cependant, ces méthodes de frappe obligent l'utilisateur à porter des gants, ce qui affectera l'interaction quotidienne de l'utilisateur et présentera des défauts de souplesse et de confort.

Pincez le clavier (Kuester等, 2005)

poignet

Une autre méthode de saisie de texte portable consiste à porter un appareil porté au poignet avec différents capteurs. PalmType utilise un capteur infrarouge sur le poignet gauche pour détecter la position de l'index droit de l'utilisateur sur la paume de la main gauche. BlueTap et DigiTap mappent séquentiellement les lettres sur les doigts et utilisent des caméras au poignet pour détecter les tapotements. En cas d'occlusion des doigts et de tapotement rapide, il est difficile pour une caméra portée au poignet de détecter avec précision la position du tapotement. Il existe également une technologie de typage basée sur les capteurs électromyographiques MYO (acquis par Meta).

PalmType (Wang et al., 2015)

ViFin reconnaît la piste d'écriture du doigt pendant pour taper. Il utilise l'unité de mesure inertielle (IMU) de la montre intelligente pour détecter la vibration de l'index de l'utilisateur lorsqu'il bouge, et utilise le réseau profond pour décoder les caractères écrits par le index Le calcul est relativement important et la précision de reconnaissance de ViFin est relativement faible. TapType utilise deux bracelets sans fil avec IMU (introduits pour la première fois dans la technologie TapID) pour détecter les vibrations générées par le léger toucher d'un doigt sur une surface plane, et utilise un décodeur pour estimer la séquence de caractères de la frappe à dix doigts. TapType, en tant que méthode de reconnaissance des doigts basée sur l'apprentissage, doit former un classificateur de manière supervisée, ce qui peut poser des problèmes de généralisation sur différents utilisateurs et matériaux de surface.

TapType(Streli et al,2022)

doigt

L'appareil porté au doigt est flexible et léger à utiliser, permettant des interactions de saisie de texte expressives en détectant les événements de rotation/toucher du doigt et en reconnaissant les gestes. Par exemple, FingerRing génère une carte de touches basée sur une combinaison d'événements de pression du doigt et d'accéléromètres, et permet la saisie sur n'importe quelle surface telle que la taille ou la cuisse. De même, TypingRing et QwertyRing mesurent le mouvement des doigts à travers différents capteurs et reconnaissent les touches sélectionnées sur un clavier virtuel sur n'importe quelle surface de type bureau. TypeAnywhere utilise deux Tap Straps (accessoires portables commerciaux basés sur l'IMU) pour détecter les tapotements sur n'importe quelle surface. RotoSwype utilise un capteur de suivi de mouvement et un anneau avec des boutons pour la saisie de texte basée sur les gestes.

TypeAnywhere(Zhang等,2022)

Les méthodes basées sur les gestes manquent de touches suffisantes pour une saisie rapide, de sorte que ces méthodes ne conviennent pas à la saisie de texte complexe. Les appareils qui détectent les événements d'appui sur les touches en fonction des informations de mouvement telles que l'accélération ou la rotation de la main nécessitent souvent des informations de détection auxiliaires pour garantir une entrée précise. Dans ces méthodes, le fonctionnement de la saisie de texte doit être très précis, ce qui n'est pas intuitif pour les débutants et difficile à apprendre dans l'environnement XR. De plus, la plupart des technologies ci-dessus utilisent des décodeurs statistiques pour améliorer la vitesse d'entrée et la correction des erreurs, et manquent de méthodes d'entrée efficaces pour les tâches de frappe telles que des ensembles de symboles plus volumineux.

En plus de la saisie par détection d'informations sur le mouvement des doigts, des méthodes de saisie de texte par détection d'événements de toucher corporel ont également été largement étudiées. TipText, BiTipText et ThumbText portent de minuscules capteurs tactiles sur les doigts qui sélectionnent les caractères après deux événements tactiles. FingerText et FingerT9 utilisent la technologie de détection capacitive pour permettre la saisie de texte d'une seule main par une touche entre le pouce et les doigts.

TipText (Xu et al, 2019)

Dans les technologies basées sur des capteurs tactiles décrites ci-dessus, les touches sont mappées sur différentes zones du doigt, de la paume ou de l'ongle. Ces méthodes tirent pleinement parti de la dextérité des doigts. Cependant, la zone de saisie pour la frappe au doigt est généralement très limitée (si la zone est trop grande, il y aura l'inconvénient des gants), limitant ainsi le nombre de touches, ce qui entraîne une faible efficacité de frappe. En fait, peu d'entre eux prennent en charge la saisie complète du jeu de caractères.

Pour résoudre ce problème, PrinType utilise un capteur d'empreintes digitales porté sur le pouce pour identifier différentes zones du doigt, élargissant considérablement l'espace de saisie sans affecter les doigts pour effectuer d'autres tâches. PrinType reconnaît l'emplacement du contact du capteur en faisant correspondre l'image actuelle à un modèle enregistré, et différentes zones du doigt sont affectées à différentes touches, formant un clavier entièrement fonctionnel en réalité virtuelle. En raison de la dextérité des doigts et de l'efficacité de la technologie de reconnaissance des empreintes digitales, la majeure partie de la paume des doigts peut être touchée et reconnue, ce qui répond aux besoins d'un grand nombre de touches discrètes contenues dans un clavier typique. Utilisant les capacités de détection tactile sensible du bout des doigts et la rétroaction visuelle en temps réel, PrinType permet la saisie à l'aveugle dans la réalité virtuelle.

La technologie de saisie d'empreintes digitales PrinType prend en charge un large éventail de symboles, notamment des lettres majuscules et minuscules, des chiffres, des signes de ponctuation, etc. (Liu et al., 2022)

autres technologies

Le casque du XR est intégré à divers capteurs qui peuvent mesurer les mouvements de la tête et des yeux, ou enregistrer le son. Le développement de la reconnaissance vocale a fait de la transcription vocale une méthode de saisie de texte mature.Cependant, dans certains cas, il est difficile de parler et la saisie vocale manque d'une technologie d'édition de texte efficace. Yu et autres et Speicher et autres ont comparé les techniques de saisie de texte basées sur le pointage de la tête, et Ma et autres et Rajanna et autres ont étudié les méthodes de typage du regard en VR. Cependant, dans ces procédés, l'utilisateur doit déplacer le curseur vers la position cible, puis sélectionner un caractère en restant sur le caractère pendant un certain laps de temps, provoquant ainsi une fatigue oculaire lors de la saisie.

Résumer

La saisie de texte efficace dans XR est un problème non résolu. Si une technologie de saisie de texte doit devenir populaire dans XR, de nombreux indicateurs doivent être pris en compte. En plus du potentiel de saisie rapide et précis en mode aveugle, la méthode de saisie doit être facile à apprendre, bonne portabilité et pas trop chère. . . La chose la plus importante est qu'il doit être bien intégré dans le système XR, suffisamment pratique et confortable pour l'interaction, et avoir un bon sens de l'expérience utilisateur.

les références

  1. Aakar Gupta, Cheng Ji, Hui-Shyong Yeo, Aaron Quigley et Daniel Vogel. 2019. RotoSwype : Saisie de mot-geste à l'aide d'un anneau. Dans Actes de la conférence CHI 2019 sur les facteurs humains dans les systèmes informatiques (pp. 1–12).
  2. Anna Peshock, Julia Duvall et Lucy E. Dunne. (2014). Argot : un gant de clavier portable à une main. Dans Actes du Symposium international ACM 2014 sur les ordinateurs portables : programme complémentaire (pp. 87–92).
  3. Ben Maman et Amit Bermano. (2022). TypeNet : vers la saisie tactile activée par caméra sur des surfaces planes grâce à l'auto-raffinement. En 2022 Conférence d'hiver IEEE / CVF sur les applications de la vision par ordinateur (pp. 567–576).
  4. Chris Harrison, Hrvoje Benko et Andrew D. Wilson. (2011). OmniTouch : Interaction multitouch portable partout. Dans Actes du 24e symposium annuel de l'ACM sur les logiciels et technologies d'interface utilisateur (pp. 441–450).
  5. Chun Yu, Yizheng Gu, Zhican Yang, Xin Yi, Hengliang Luo et Yuanchun Shi. (2017). Tap, Dwell or Gesture ? Exploring Head-Based Text Entry Techniques for HMDs. Dans Actes de la conférence CHI 2017 sur les facteurs humains dans Systèmes informatiques (pp. 4479–4488).
  6. Dash, S. (2017). BlueTap—Le clavier de réalité virtuelle (VR) ultime.
  7. DoYoung Lee, Jiwan Kim et Ian Oakley. (2021). FingerText : Exploration et optimisation des performances pour la saisie portable, mobile et à une main. Dans Actes de la conférence CHI 2021 sur les facteurs humains dans les systèmes informatiques (pp. 283-298).
  8. Dube, TJ et Arif, AS (2019, juillet). Saisie de texte en réalité virtuelle : Une revue complète de la littérature. Dans Conférence internationale sur l'interaction homme-machine (pp. 419-437). Springer, Cham.
  9. Eric Whitmire, Mohit Jain, Divye Jain, Greg Nelson, Ravi Karkar, Shwetak Patel et Mayank Goel. (2017). DigiTouch : saisie reconfigurable du pouce à doigt et saisie de texte sur les écrans montés sur la tête. Actes de l'ACM sur les technologies interactives, mobiles, portables et omniprésentes, 1(3), 113-134.
  10. Falko Kuester, Michelle Chen, Mark E. Phair et Carsten Mehring. (2005). Vers la saisie tactile indépendante du clavier en VR. Dans Actes du symposium ACM sur les logiciels et technologies de réalité virtuelle (pp. 86–95).
  11. Junhyeok Kim, William Delamare et Pourang Irani. (2018). ThumbText : saisie de texte pour les appareils portables à l'aide d'un anneau miniature. Dans Actes de la 44e conférence sur l'interface graphique (pp. 18–25).
  12. Kim, J., Delamare, W. et Irani, P. (2018, mai). Thumbtext : saisie de texte pour les appareils portables à l'aide d'un anneau miniature. Dans l'interface graphique.
  13. Knierim, P., Schwind, V., Feit, AM, Nieuwenhuizen, F. et Henze, N. (2018, avril). Claviers physiques en réalité virtuelle : analyse des performances de frappe et des effets des mains d'avatar. Dans Actes de la conférence CHI 2018 sur les facteurs humains dans les systèmes informatiques (pp. 1-9).
  14. Kyunga Min. (2011). Outil de saisie de texte pour la réalité virtuelle immersive basée sur des cellules d'écran 3 × 3. Dans Actes de la 5e Conférence internationale sur la convergence et les technologies de l'information hybrides (pp. 778–786). Springer-Verlag, Berlin, Heidelberg.
  15. Lee, D., Kim, J. et Oakley, I. (2021, mai). Fingertext : Explorer et optimiser les performances pour la saisie portable, mobile et à une main. Dans Actes de la conférence CHI 2021 sur les facteurs humains dans les systèmes informatiques (pp. 1-15).
  16. Liu, Z., He, J., Feng, J. et Zhou, J. (2022). PrinType : saisie de texte via la reconnaissance d'empreintes digitales. Actes de l'ACM sur les technologies interactives, mobiles, portables et omniprésentes, 6(4), 1-31.
  17. Lu, Y., Yu, C., Yi, X., Shi, Y. et Zhao, S. (2017). Type aveugle : Saisie de texte sans les yeux sur le pavé tactile de l'ordinateur de poche en tirant parti de la mémoire musculaire du pouce. Actes de l'ACM sur les technologies interactives, mobiles, portables et omniprésentes, 1(2), 1-24.
  18. Manuel Prätorius, Dimitar Valkov, Ulrich Burgbacher et Klaus Hinrichs. (2014). DigiTap : un périphérique d'entrée symbolique VR/AR sans yeux. Dans Actes du 20e Symposium ACM sur les logiciels et technologies de réalité virtuelle (pp. 9–18).
  19. Marco Speicher, Anna Maria Feit, Pascal Ziegler et Antonio Krüger. (2018). Saisie de texte basée sur la sélection en réalité virtuelle. Dans Actes de la Conférence CHI 2018 sur les facteurs humains dans les systèmes informatiques (pp. 1–13).
  20. Markussen, A., Jakobsen, MR et Hornbæk, K. (2014, avril). Vulture : un clavier de mots-gestes en l'air. Dans Actes de la conférence SIGCHI sur les facteurs humains dans les systèmes informatiques (pp. 1073-1082).
  21. Masaaki Fukumoto et Yasuhito Suenaga. (1994). « FingeRing » : une interface portable à temps plein. Dans Conference Companion on Human Factors in Computing Systems (pp. 81–82).
  22. Nirjon, S., Gummeson, J., Gelb, D. et Kim, KH (2015, mai). Typingring : Une plate-forme d'anneau portable pour la saisie de texte. Dans Actes de la 13e Conférence internationale annuelle sur les systèmes, applications et services mobiles (pp. 227-239).
  23. Pui Chung Wong, Kening Zhu et Hongbo Fu. (2018). FingerT9 : Tirer parti de l'interaction pouce-à-doigt pour la saisie de texte de la même main sur les montres intelligentes. Dans Actes de la Conférence CHI 2018 sur les facteurs humains dans les systèmes informatiques (pp. 1–10).
  24. Shahriar Nirjon, Jeremy Gummeson, Dan Gelb et Kyu-Han Kim. (2015). TypingRing : une plate-forme d'anneau portable pour la saisie de texte. Dans Actes de la 13e Conférence internationale annuelle sur les systèmes, applications et services mobiles (pp. 227–239).
  25. Speicher, M., Feit, AM, Ziegler, P. et Krüger, A. (2018, avril). Saisie de texte basée sur la sélection en réalité virtuelle. Dans Actes de la conférence CHI 2018 sur les facteurs humains dans les systèmes informatiques (pp. 1-13).
  26. Streli, P., Jiang, J., Fender, AR, Meier, M., Romat, H. et Holz, C. (avril 2022). TapType : saisie de texte à dix doigts sur des surfaces de tous les jours via l'inférence bayésienne. Dans Actes de la Conférence CHI 2022 sur les facteurs humains dans les systèmes informatiques (pp. 1-16).
  27. Vijay Rajanna et John Paulin Hansen. (2018). Gaze Typing en réalité virtuelle : impact de la conception du clavier, de la méthode de sélection et du mouvement. Dans Actes du Symposium ACM 2018 sur la recherche et les applications en suivi oculaire (pp. 15-25).
  28. Wang, CY, Chu, WC, Chiu, PT, Hsiu, MC, Chiang, YH et Chen, MY (2015, août). PalmType : Utilisation des paumes comme claviers pour les lunettes intelligentes. Dans Actes de la 17e Conférence internationale sur l'interaction homme-machine avec les appareils et services mobiles (pp. 153-160).
  29. Wenqiang Chen, Lin Chen, Meiyi Ma, Farshid Salemi Parizi, Shwetak Patel et John Stankovic. (2021). ViFin : exploitez les vibrations passives pour une écriture continue au micro-doigt avec une montre intelligente de commodité. Actes de l'ACM sur les technologies interactives, mobiles, portables et omniprésentes, 5(1), 45-70.
  30. Wong, PC, Zhu, K. et Fu, H. (avril 2018). Fingert9 : Tirer parti de l'interaction pouce-doigt pour la saisie de texte de la même main sur les montres connectées. Dans Actes de la conférence CHI 2018 sur les facteurs humains dans les systèmes informatiques (pp. 1-10).
  31. Xinyao Ma, Zhaolin Yao, Yijun Wang, Weihua Pei et Hongda Chen. (2018). Combinaison de l'interface cerveau-ordinateur et du suivi oculaire pour la saisie de texte à grande vitesse dans la réalité virtuelle. Dans la 23e Conférence internationale sur les interfaces utilisateur intelligentes (pp. 263–267).
  32. Xu, Z., Chen, W., Zhao, D., Luo, J., Wu, TY, Gong, J., … & Yang, XD (avril 2020). Bitiptext : saisie de texte bimanuelle sans yeux sur un clavier du bout des doigts. Dans Actes de la conférence CHI 2020 sur les facteurs humains dans les systèmes informatiques (pp. 1-13).
  33. Xu, Z., Wong, PC, Gong, J., Wu, TY, Nittala, AS, Bi, X., … & Yang, XD (octobre 2019). Tiptext : Saisie de texte sans les yeux sur un clavier du bout des doigts. Dans Actes du 32e Symposium annuel de l'ACM sur les logiciels et technologies d'interface utilisateur (pp. 883-899).
  34. Yizheng Gu, Chun Yu, Zhipeng Li, Zhaoheng Li, Xiaoying Wei et Yuanchun Shi. (2020). QwertyRing : Text Entry on Physical Surfaces Using a Ring. Actes de l'ACM sur les technologies interactives, mobiles, portables et omniprésentes, 4( 4), 128-157.
  35. Yu, D., Fan, K., Zhang, H., Monteiro, D., Xu, W. et Liang, HN (2018). PizzaText : saisie de texte pour les systèmes de réalité virtuelle à l'aide de deux manettes. Transactions IEEE sur la visualisation et l'infographie, 24(11), 2927-2935.
  36. Zhang, MR, Zhai, S. et Wobbrock, JO (2022, avril). TypeAnywhere : une solution de saisie de texte basée sur QWERTY pour l'informatique omniprésente. Dans Conférence CHI sur les facteurs humains dans les systèmes informatiques (pp. 1-16).
  37. Zheer Xu, Pui Chung Wong, Jun Gong, Te-Yen Wu, Aditya Shekhar Nittala, Xiaojun Bi, Jürgen Steimle, Hongbo Fu, Kening Zhu et Xing-Dong Yang. (2019). TipText : saisie de texte sans yeux sur un clavier du bout des doigts. Dans Actes du 32e Symposium annuel de l'ACM sur les logiciels et technologies d'interface utilisateur (pp. 883–899).
  38. Zheer Xu, Weihao Chen, Dongyang Zhao, Jiehui Luo, Te-Yen Wu, Jun Gong, Sicheng Yin, Jialun Zhai et Xing-Dong Yang (2020). BiTipText : saisie de texte bimanuelle sans yeux sur un clavier du bout des doigts. Dans Actes de la conférence CHI 2020 sur les facteurs humains dans les systèmes informatiques (pp. 1–13).

Je suppose que tu aimes

Origine blog.csdn.net/minutiae/article/details/130697040
conseillé
Classement