Computer science professor Mark Brown appreciates the power of nonverb Traducción - Computer science professor Mark Brown appreciates the power of nonverb ruso cómo decir

Computer science professor Mark Bro

Computer science professor Mark Brown appreciates the power of nonverbal communication. Calling himself a human-computer interaction specialist, Brown focuses his work on replicating characteristics of human behavior in robots or animatronic characters. Brown is leading a team that is developing and creating various computer algorithms based on how people communicate without words. These algorithms are then used to program devices, like robots, to look and act more human-like, helping to bridge the gap between man and machine.

A critical part of the human-robot gap centers on communication. When we talk with someone, words are not the only influence on a listener’s understanding. Other subtle factors – such as tone of voice, body language and eye contact – also have powerful communicative potential. Some robotics researchers have focused on gesture, tone of voice and facial expressions. Recently, for example, a group of researchers in Singapore released a computer program whose algorithm recognizes human gestures quickly and accurately. They tested the software by integrating it with ShapeTape, a special jacket that uses fiber optics and sensors to monitor the bending and twisting of hands and arms. In tests, five different users wore the ShapeTape jacket and used it to control a virtual robot through simple arm motions that represented commands such as forward, backward, faster or slower. The researchers found that 99.15% of gestures were correctly translated by their system. A particularly important achievement of this software is how easy it is to add new commands, by demonstrating a new control gesture just a few times. The next step in improving the gesture recognition system is to allow humans to control robots without the need to wear any special devices.

Brown has focused his most recent research on human gaze, the facet of nonverbal communication he finds most intriguing. “It turns out that gaze tells us all sorts of things about attention, about mental states, about roles in conversations,” he says. For example, if a person focuses his or her gaze on a specific individual while talking to a group of people, it communicates that what is being said is especially relevant to that individual.

Research also shows that when a person finishes saying something in a conversation and directs his or her gaze to one particular person, that person is likely to take the next turn speaking in the discussion. These nonverbal cues tell people where our attention is focused and what we mean when we direct a question or comment in a conversation. When people really mean what they are saying, they might open up their eyes and look at the person they are talking to and really try to communicate their message or thought through facial and other cues.

To convert these subtle cues of human communication into data and language that can be used by a robot, Brown’s team takes the same approach as the Singapore team. They break down each human cue or gesture into minute segments or sub-mechanisms – such as the direction of the eyes versus the direction of the head or how the body is oriented – which can be modeled. Then certain temporal dimensions are added to the model, such as the length of time a target is looked at. When building robots for roles in teaching, for example, Brown incorporates these nonverbal behaviors in the control software. The research team has found robot-assisted learning improves when a robot teacher uses these visual cues.

Brown’s goal is not to duplicate a human being in robot form, or have robots mimic people on a one-to-one basis. Instead, he seeks to find key mechanisms which help humans communicate effectively, reproduce them in many different robots and enable these systems to connect with humans as humans communicate with each other. He believes that this kind of robot development has significant potential for assistive technologies. For example, he wants to explore how a “smart” robot who communicates like a person might assist people with disabilities to lead fuller and more comfortable lives.
0/5000
De: -
Para: -
Resultados (ruso) 1: [Dupdo]
Copiado!
Профессор компьютерных наук Марк Браун высоко ценит власть невербальной коммуникации. Называя себя специалист взаимодействия человека с компьютером, Браун фокусируется свою работу на тиражирование характеристик поведения человека в роботов или аниматронных символов. Браун является ведущим команда, которая разрабатывает и создание различных компьютерных алгоритмов, основанных на том, как люди общаются без слов. Затем эти алгоритмы используются для программы устройств, таких как роботы, чтобы выглядеть и закон больше как человека, помогая преодолеть разрыв между человеком и машиной.Важной частью gap человека робот центров по коммуникации. Когда мы говорим с кем-то, слова, не только влияние на понимание слушателя. Другие тонкие факторы – такие как тон голоса, язык тела и зрительный контакт-также имеют мощный коммуникативный потенциал. Некоторые исследователи робототехники были сосредоточены на жест, тон голоса и лицевого выражения. Недавно например, группа исследователей в Сингапуре выпустил компьютерную программу, в которой алгоритм распознает человеческие жесты, быстро и точно. Они протестировали программное обеспечение путем интеграции с ShapeTape, Специальный куртку, которая использует волоконной оптики и датчики для мониторинга изгиб и кручение из рук и оружия. В тестах пять различных пользователей носил куртку ShapeTape и использовал его для управления виртуальный робот через простые руки движений, которые представлены команды, такие как вперед, назад, быстрее или медленнее. Исследователи обнаружили, что 99.15% жестов правильно были переведены их системы. Особенно важным достижением этого программного обеспечения является, как легко добавить новые команды, демонстрируя новый жест управления несколько раз. Следующим шагом в улучшении системы распознавания жестов, чтобы позволить людям контролировать роботов без необходимости носить каких-либо специальных устройств.Браун сосредоточил свои последние исследования на человеческий взгляд, аспект невербальной коммуникации, которые он считает наиболее интригующим. «Получается, что взгляд говорит нам всякие вещи о внимании, о психических состояниях, о ролях в беседах,» говорит он. Например если лицо его или ее взгляд на конкретное лицо во время разговора с группой людей, он общается, что говорят то, что особенно актуально для этого лица.Исследование также показывает, что, когда человек заканчивает, сказав что-то в разговоре и направляет его или ее взгляд на одного конкретного человека, что человек может принять следующий поворот выступая в ходе обсуждения. Эти невербальные сигналы рассказать людям, где сосредоточено наше внимание и то, что мы имеем в виду, когда мы направляем вопрос или комментарий в разговоре. Когда люди действительно означает, что они говорят, они могут открыть глаза и посмотреть на человека, они говорят и действительно пытаются сообщить свои сообщения или через лицевой и другие сигналы.To convert these subtle cues of human communication into data and language that can be used by a robot, Brown’s team takes the same approach as the Singapore team. They break down each human cue or gesture into minute segments or sub-mechanisms – such as the direction of the eyes versus the direction of the head or how the body is oriented – which can be modeled. Then certain temporal dimensions are added to the model, such as the length of time a target is looked at. When building robots for roles in teaching, for example, Brown incorporates these nonverbal behaviors in the control software. The research team has found robot-assisted learning improves when a robot teacher uses these visual cues.Brown’s goal is not to duplicate a human being in robot form, or have robots mimic people on a one-to-one basis. Instead, he seeks to find key mechanisms which help humans communicate effectively, reproduce them in many different robots and enable these systems to connect with humans as humans communicate with each other. He believes that this kind of robot development has significant potential for assistive technologies. For example, he wants to explore how a “smart” robot who communicates like a person might assist people with disabilities to lead fuller and more comfortable lives.
Está traduciendo, por favor espere..
Resultados (ruso) 2:[Dupdo]
Copiado!
Компьютерные науки профессор Марк Браун высоко оценивает силу невербального общения. Называющий себя специалистом взаимодействия с человеком-компьютером, Браун фокусирует свою работу на тиражирование характеристики человеческого поведения в роботов или аниматронных символов. Браун возглавляет команду , которая занимается разработкой и создавать различные компьютерные алгоритмы , основанные на том , как люди общаются без слов. Эти алгоритмы затем используются для программирования устройств, как роботы, чтобы выглядеть и действовать более человек, как, помогая преодолеть разрыв между человеком и машиной.

Важной частью разрыва между человеком и роботом центров по коммуникации. Когда мы говорим с кем - то, слова не единственное влияние на понимание слушателя. Другие тонкие факторы - такие , как тон голоса, язык тела и зрительный контакт - также обладают мощным коммуникативным потенциалом. Некоторые исследователи робототехники сосредоточились на жест, тон голоса и выражения лица. Недавно, например, группа исследователей в Сингапуре выпустила компьютерную программу , в которой алгоритм распознает человеческие жесты быстро и точно. Они протестировали программное обеспечение за счет интеграции его с ShapeTape, специальный жакет , который использует волоконно - оптические и датчики для контроля за изгибу и скручиванию рук и рук. В тестах, пять различных пользователей , носил куртку ShapeTape и использовал его для управления виртуальным роботом с помощью простых движений рук , которые представляли команды , такие как вперед, назад, быстрее или медленнее. Исследователи обнаружили , что 99,15% жестов были правильно переведены их системой. Особенно важным достижением этого программного обеспечения , как легко добавлять новые команды, демонстрируя новый элемент управления жест всего несколько раз. Следующим шагом в совершенствовании системы распознавания жестов, чтобы позволить людям контролировать роботов без необходимости носить каких - либо специальных устройств.

Браун сосредоточил свои самые последние исследования человеческого взгляда, аспект невербального общения он находит наиболее интригующим. "Оказывается, что взгляд говорит нам всякие вещи , о внимании, о психических состояниях, о роли в разговорах," говорит он. Например, если человек фокусирует свой взгляд на конкретного человека во время разговора с группой людей, он сообщает , что то, что говорится особенно актуальна для этого человека.

Исследования также показывают , что , когда человек заканчивает говорить что - то в разговоре и направляет его или ее взгляд на одного конкретного человека, то этот человек, скорее всего, принять следующий поворот , выступая в ходе дискуссии. Эти невербальные сигналы говорить людям , где наше внимание сосредоточено и то , что мы имеем в виду , когда мы направляем вопрос или комментарий в разговоре. Когда люди на самом деле означает , что они говорят, они могли бы открыть свои глаза и смотреть на человека , они говорят и действительно пытаются сообщить свое сообщение или продумана лица и другие сигналы.

Чтобы преобразовать эти тонкие сигналы человеческого общения в данных и язык , который может быть использован робот, команда Брауна занимает один и тот же подход, что и команда Сингапура. Они ломаются каждый человеческий кий или жест в минутные сегменты или подгруппы механизмов - таких , как направление глаз по отношению к направлению головы или как тело ориентировано , - которые могут быть смоделированы. Тогда определенные временные размеры добавлены к модели, такие как продолжительность времени мишень смотреть. При создании роботов для роли в обучении, например, Браун включает эти невербальные поведение в программном обеспечении управления. Исследовательская группа обнаружила обучение роботизированной улучшается , когда учитель робот использует эти визуальные подсказки.

Цель Брауна не дублировать человеческое существо в форме робота, или роботов имитировать людей на основе один-к-одному. Вместо этого он пытается найти ключевые механизмы , которые помогают людям эффективно общаться, воспроизводить их во многих различных роботов и включить эти системы , чтобы соединиться с людьми , как люди общаются друг с другом. Он считает , что такого рода развития робота имеет значительный потенциал для вспомогательных технологий. Например, он хочет , чтобы исследовать , как "умный" робот , который общается , как человек , может помочь людям с ограниченными возможностями вести более полную и более комфортной жизни.
Está traduciendo, por favor espere..
 
Otros idiomas
El soporte de la herramienta de traducción: Chino tradicional, Detectar idioma, Indonesio, Klingon, afrikáans, albanés, alemán, amhárico, armenio, azerí, bengalí, bielorruso, birmano, bosnio, búlgaro, camboyano, canarés, catalán, cebuano, checo, chichewa, chino, cingalés, coreano, corso, criollo haitiano, croata, danés, eslovaco, esloveno, español, esperanto, estonio, euskera, finlandés, francés, frisio, gallego, galés, gaélico escocés, georgiano, griego, gujarati, hausa, hawaiano, hebreo, hindi, hmong, húngaro, igbo, inglés, irlandés, islandés, italiano, japonés, javanés, kazajo, kinyarwanda, kirguís, kurdo, lao, latín, letón, lituano, luxemburgués, macedonio, malayalam, malayo, malgache, maltés, maorí, maratí, mongol, neerlandés, nepalí, noruego, oriya, panyabí, pastún, persa, polaco, portugués, rumano, ruso, samoano, serbio, sesoto, shona, sindhi, somalí, suajili, sueco, sundanés, tagalo, tailandés, tamil, tayiko, telugu, turco, turkmeno, tártaro, ucraniano, uigur, urdu, uzbeco, vietnamita, xhosa, yidis, yoruba, zulú, árabe, traducción de idiomas.

Copyright ©2025 I Love Translation. All reserved.

E-mail: