A new trend in artwork creation in the last decade is to go larger tha Traducción - A new trend in artwork creation in the last decade is to go larger tha polaco cómo decir

A new trend in artwork creation in

A new trend in artwork creation in the last decade is to go larger than life. No longer are pieces that can be hung on a wall the popular choice for those with money to spend on high-end artwork. Now art patrons, including those with private collections, are looking for works that take up large spaces in huge warehouses. One of the most recent examples is Paul McCarthy’s rendition of a forest based on American mythology, which required an entire hall in New York’s Armory Building for display. Seventeen semi-trucks were used to transport the design to its display locale and it took a week to set up. The display included gigantic trees and houses and graphic videos throughout. This was not just a piece of art; it was an interactive show that welcomed the viewer into its world.

Not all of these grand new works are made so that the public can walk through them, but one thing they have in common is their ability to shock the senses with their size. The trend toward huge art can be seen in artists’ works from around the world. Massive paintings that cover one side of a four-story building in Sydney, a multi-colored chair as big as a house placed in the center of a park in Sweden and an enormous rubber lotus flower placed in the courtyard of a government building in Cairo are just a few examples of this new trend. Because of the popularity of such public displays, cities are now building enormous buildings that can be used specifically for this kind of artwork.
Computer science professor Mark Brown appreciates the power of nonverbal communication. Calling himself a human-computer interaction specialist, Brown focuses his work on replicating characteristics of human behavior in robots or animatronic characters. Brown is leading a team that is developing and creating various computer algorithms based on how people communicate without words. These algorithms are then used to program devices, like robots, to look and act more human-like, helping to bridge the gap between man and machine.

A critical part of the human-robot gap centers on communication. When we talk with someone, words are not the only influence on a listener’s understanding. Other subtle factors – such as tone of voice, body language and eye contact – also have powerful communicative potential. Some robotics researchers have focused on gesture, tone of voice and facial expressions. Recently, for example, a group of researchers in Singapore released a computer program whose algorithm recognizes human gestures quickly and accurately. They tested the software by integrating it with ShapeTape, a special jacket that uses fiber optics and sensors to monitor the bending and twisting of hands and arms. In tests, five different users wore the ShapeTape jacket and used it to control a virtual robot through simple arm motions that represented commands such as forward, backward, faster or slower. The researchers found that 99.15% of gestures were correctly translated by their system. A particularly important achievement of this software is how easy it is to add new commands, by demonstrating a new control gesture just a few times. The next step in improving the gesture recognition system is to allow humans to control robots without the need to wear any special devices.

Brown has focused his most recent research on human gaze, the facet of nonverbal communication he finds most intriguing. “It turns out that gaze tells us all sorts of things about attention, about mental states, about roles in conversations,” he says. For example, if a person focuses his or her gaze on a specific individual while talking to a group of people, it communicates that what is being said is especially relevant to that individual.

Research also shows that when a person finishes saying something in a conversation and directs his or her gaze to one particular person, that person is likely to take the next turn speaking in the discussion. These nonverbal cues tell people where our attention is focused and what we mean when we direct a question or comment in a conversation. When people really mean what they are saying, they might open up their eyes and look at the person they are talking to and really try to communicate their message or thought through facial and other cues.

To convert these subtle cues of human communication into data and language that can be used by a robot, Brown’s team takes the same approach as the Singapore team. They break down each human cue or gesture into minute segments or sub-mechanisms – such as the direction of the eyes versus the direction of the head or how the body is oriented – which can be modeled. Then certain temporal dimensions are added to the model, such as the length of time a target is looked at. When building robots for roles in teaching, for example, Brown incorporates these nonverbal behaviors in the control software. The research team has found robot-assisted learning improves when a robot teacher uses these visual cues.

Brown
0/5000
De: -
Para: -
Resultados (polaco) 1: [Dupdo]
Copiado!
Nowy trend w tworzeniu kompozycji w ostatniej dekadzie jest iść większe niż życie. Już nie są kawałki, które można powiesić na ścianie popularny wybór dla tych pieniędzy wydać na wysokiej klasy kompozycji. Teraz mecenasów sztuki, w tym z prywatnych zbiorów, szukają dzieła, które przenoszą się duże przestrzenie w ogromne magazyny. Jednym z ostatnich przykładów jest odwzorowanie Paula McCarthy lasu w oparciu o amerykański mitologii, który wymaga Cała sala w budynku zbrojowni Nowy Jork dla wyświetlania. Siedemnaście ciężarówki naczepy używane były do transportu projekt do jego wyświetlania ustawień regionalnych i zajęło tydzień wobec umieszczać w górze. Wyświetlacz zawiera gigantyczne drzewa i domy i graficzny wideo przez cały. To nie tylko kawałek sztuki; to interaktywne show, który powitał widza do jego świata.Nie wszystkie te grand nowe prace są wykonane tak, aby publicznie można chodzić za ich pośrednictwem, ale jedną z rzeczy, które mają wspólne jest ich zdolność do szok na zmysły ich rozmiar. Trend w kierunku ogromne sztuki można zobaczyć w twórczości artystów z całego świata. Ogromne malowidła, które obejmują po jednej stronie w czteropiętrowym budynku w Sydney, wielobarwne krzesło tak duży jak dom umieszczony w centrum parku w Szwecji i kwiat lotosu ogromne gumy, umieszczone na dziedzińcu budynku rządowego w Cairo znajduje się kilka przykładów tego nowego trendu. Ze względu na popularność takie publiczne okazywanie miast są teraz budowa ogromnych budynków, które mogą być używane w szczególności dla tego rodzaju dzieła sztuki.Profesor nauk komputerowych Mark Brown docenia moc komunikacji niewerbalnej. Nazywać siebie specjalistą interakcji człowiek komputer, Brown skupia się jego pracy na replikowanie cech ludzkich zachowań w roboty lub animatroniczne znaków. Brown jest liderem zespołu, który jest rozwój i tworzenie różnych algorytmów komputerowych w oparciu o jak ludzie komunikują się bez słów. Algorytmy te są następnie używane do program urządzeń, takich jak roboty, aby wygląd i działać bardziej człowieka jak, przyczyniając się do wypełnienia luki między człowiekiem i maszyną.Krytyczna luka człowieka z robotem koncentruje się na komunikacji. Kiedy rozmawiamy z kimś, słowa są nie tylko wpływ na zrozumienie słuchacza. Innych subtelnych czynników – takich jak ton głosu, mowy ciała i kontakt wzrokowy – mieć potężne możliwości komunikacyjne. Niektórzy badacze robotyka koncentrowały się na gest, dźwięk głos i wyraz twarzy. Niedawno na przykład, Grupa naukowców w Singapurze wydany program komputerowy, którego algorytm rozpoznaje gesty ludzi szybko i dokładnie. One przetestowane oprogramowanie, integrując go z ShapeTape, specjalne Kurtka, która używa Światłowody i czujniki do monitorowania naprężenia zginające i skręcające z rąk i ramion. W testach pięć różnych użytkowników nosił kurtkę ShapeTape i używali go do sterowania robotem wirtualnych przez ramię proste ruchy, które reprezentowane poleceń takich jak do przodu, do tyłu, szybciej lub wolniej. Naukowcy odkryli, że 99.15% gesty zostały prawidłowo przetłumaczone przez ich system. Szczególnie ważnym osiągnięciem tego oprogramowania jest to, jak łatwo jest dodać nowe polecenia, demonstrując nowe gest kontroli zaledwie kilka razy. Następnym krokiem w poprawie systemu uznawania gest jest umożliwienie ludzi do sterowania robotów bez konieczności noszenia specjalnych urządzeń.Brown skupiła się w jego najnowszych badań na spojrzenie człowieka, aspekt komunikacji niewerbalnej, które odnajduje najbardziej intrygujące. "Okazuje się, że wzrok mówi nam wszelkiego rodzaju rzeczy o uwagi, dotyczące stanów psychicznych, o rolach w rozmowach," mówi. Na przykład jeśli osoba koncentruje się spojrzenie jego lub jej poszczególnych podczas mówienia do grupy osób, to komunikuje się że to co jest powiedziane jest szczególnie istotne dla tej osoby.Badania pokazują również, że gdy osoba kończy się mówiąc coś w rozmowie i kieruje jego lub jej spojrzenie do jednej konkretnej osoby, że osoba jest prawdopodobnie do podjęcia następnego mówiąc kolei w dyskusji. Tych sygnałów niewerbalnych powiedzieć ludziom, gdzie nasza Uwaga jest skupiona i co mamy na myśli, gdy kierujemy pytanie lub komentarz w rozmowie. Kiedy ludzie naprawdę myśli, co mówią, może otworzyć oczy i spojrzeć na osobę są rozmowy i naprawdę starają się przekazać ich innym lub przemyślane twarzy i inne.To convert these subtle cues of human communication into data and language that can be used by a robot, Brown’s team takes the same approach as the Singapore team. They break down each human cue or gesture into minute segments or sub-mechanisms – such as the direction of the eyes versus the direction of the head or how the body is oriented – which can be modeled. Then certain temporal dimensions are added to the model, such as the length of time a target is looked at. When building robots for roles in teaching, for example, Brown incorporates these nonverbal behaviors in the control software. The research team has found robot-assisted learning improves when a robot teacher uses these visual cues.Brown
Está traduciendo, por favor espere..
Resultados (polaco) 2:[Dupdo]
Copiado!
Nowy trend w tworzeniu grafiki w ostatniej dekadzie jest iść większa niż życie. Nie są już kawałki, które można powiesić na ścianie popularnym wyborem dla osób z pieniędzy na high-end grafika. Teraz jesteś patronów, w tym tych z kolekcji prywatnych, szukasz dzieł, które zajmują duże przestrzenie w dużych magazynach. Jednym z ostatnich przykładów jest odwzorowanie Paula McCarthy'ego lasu opartej na amerykańskiej mitologii, która wymagała całą halę w nowojorskiej Armory Building na wyświetlaczu. Siedemnaście naczepy ciężarówki używane do transportu projekt do jego lokalizacji wyświetlacza i zajęło tydzień do skonfigurowania. Wyświetlacz włączone gigantycznych drzew i domów i filmy graficzne całym. To nie była tylko dziełem sztuki; było interaktywne pokazują, że z zadowoleniem widza do jego świata. Nie wszystkie z tych wielkich nowych utworów są wykonane tak, że społeczeństwo może chodzić po nich, ale jedno ich łączy jest ich zdolność do wstrząsu zmysły ich wielkości. Tendencja do wielkiej sztuki można oglądać w dziełach artystów z całego świata. Ogromne obrazy, które obejmują jedną stronę budynku czteropiętrowego w Sydney, wielobarwne krzesło wielki jak dom umieszczony w środku parku w Szwecji i ogromny kwiat gumy lotosu umieszczonego na dziedzińcu budynku rządowym w Kairze to tylko kilka przykładów tego nowego trendu. Ze względu na popularność takich wyświetlaczy publicznych, miasta budują obecnie ogromne budynki, które mogą być używane specjalnie dla tego rodzaju dzieła sztuki. Informatyka profesor Mark Brown docenia siłę komunikacji niewerbalnej. Nazywając siebie specjalistę interakcji człowiek-komputer, Brown koncentruje swoje prace na temat replikowania cech ludzkich zachowań w robotach lub znaków animatroniczne. Brown jest liderem zespołu, który jest rozwijanie i tworzenie różnych algorytmów komputerowych opartych na jaki ludzie komunikują się bez słów. Algorytmy te są następnie wykorzystywane do programowania urządzeń, jak roboty, aby wyglądać i działać bardziej podobne do człowieka, przyczyniając się do wypełnienia luki między człowiekiem a maszyną. Krytyczną częścią szczeliny człowieka robota koncentruje się na komunikacji. Kiedy mówimy o kimś, słowa nie są jedynie wpływ na zrozumienie słuchacza. Inne subtelne czynniki - takie jak ton głosu, język ciała i kontakt wzrokowy - również potężny potencjał komunikacyjny. Niektóre robotyka naukowcy skupili się na gest, ton głosu i mimiki. Ostatnio, na przykład, grupa naukowców w Singapurze wydała programu komputerowego, którego algorytm szybko i precyzyjnie rozpoznaje ludzkie gesty. Były testowane oprogramowanie, integrując je z ShapeTape, specjalnym płaszczem, który wykorzystuje światłowody i czujniki do monitorowania zginanie i skręcanie dłoni i ramion. W testach, pięć różnych użytkowników nosił kurtkę ShapeTape i wykorzystał je kontrolować wirtualnego robota za pomocą prostych ruchów ramion, które reprezentowane takie polecenia jak przód, tył, szybciej lub wolniej. Naukowcy odkryli, że 99,15% gestów zostały prawidłowo przetłumaczone przez ich system. Szczególnie ważnym osiągnięciem tego oprogramowania jest to, jak łatwo jest dodać nowe polecenia, demonstrując nowy gest kontrolę zaledwie kilka razy. Następnym krokiem w poprawie systemu rozpoznawania gestu jest umożliwienie ludziom do sterowania robotów bez konieczności noszenia specjalnych urządzeń. Brown skupił najnowszych badań na ludzkim wzrokiem, The aspekt komunikacji niewerbalnej dowiaduje najbardziej intrygujące. "Okazuje się, że spojrzenie mówi nam wszelkiego rodzaju rzeczy uwagi, o stanach mentalnych, o roli w rozmowach", mówi. Na przykład, jeśli ktoś skupia swój wzrok na konkretnej osoby podczas rozmowy z grupą ludzi, komunikuje, że to co zostało powiedziane jest szczególnie istotne dla tej osoby. Badania pokazują także, że gdy dana osoba kończy mówiąc coś w rozmowie i kieruje swój wzrok na jednej konkretnej osoby, osoba ta może przyjąć następną turę mówienia w dyskusji. Te sygnały niewerbalne powiedzieć ludziom, gdzie nasza uwaga skupiona jest i co mamy na myśli, kiedy kierujemy pytanie lub komentarz w rozmowie. Gdy ludzie naprawdę myśli to, co mówią, mogą otworzyć oczy i spojrzeć na osoby, z którą rozmawiasz, a naprawdę starają się przekazać swoją wiadomość lub przemyślane twarzy i inne sygnały. Aby przekształcić te subtelne sygnały komunikacji człowieka na dane oraz język, który może być stosowany przez robota, zespół Browna zajmuje takie samo podejście jak zespole Singapurze. Oni rozbić każdy kij ludzkiego lub gest pod minutowych odcinków lub podsektorów mechanizmów - takich jak kierunku oczu w stosunku do kierunku głowicy lub w jaki sposób organizm jest zorientowany - które można modelować. Wtedy pewne wymiary czasowe są dodawane do modelu, takich jak długość czasu celem jest przyglądać. Przy budowie robotów ról w nauce, na przykład Brown przedstawia te niewerbalne zachowania w oprogramowaniu sterowania. Zespół badawczy stwierdził uczenia robota wspomaganego poprawia gdy nauczyciel robota używa tych wizualnych wskazówek. Brown













Está traduciendo, por favor espere..
Resultados (polaco) 3:[Dupdo]
Copiado!
nowy trend w dzieła stworzenia w ostatnim dziesięcioleciu na więcej niż życie.już nie są kawałki, które można powiesić na ścianie, popularny wybór dla tych z pieniędzy na takie prace.teraz sztukę klientów, w tym z prywatnych kolekcjach, szukają działa to duże przestrzenie w ogromne magazyny.jednym z ostatnich przykładów jest paul mccarthy jest interpretacja las w oparciu o amerykańskim mitologii, które wymagało całego hall w nowym jorku w zbrojowni, budynek na wystawę.siedemnaście ciężarówki były wykorzystywane do przewozu wzór na jego pokaz locale zajęło tydzień, by się przygotować.monitor włączony gigantyczne drzewa i domy i graficznych wideo w internecie.to nie był tylko dzieło sztuki; to interaktywne wskazują, że z zadowoleniem przyjął go do jego świata.nie wszystkie z tych tysięcy nowych robót budowlanych, aby obywatele mogli przejść obok nich, ale jedno ich łączy ich zdolność do szoku zmysły z ich wielkości.tendencja do ogromnych sztuka może być postrzegane w artystów, pracuje z całego świata.wielkie obrazy, które obejmuje z jednej strony czteropiętrowy budynek w sydney, multi - krześle koloru jak dom umieszczony w centrum parku w szwecji i ogromny gumy kwiat lotosu umieszczone na dziedzińcu budynek rządowy w kairze, to tylko kilka przykładów to nowy trend.ze względu na popularność takich publicznym okazywaniem, miasta są teraz budują ogromne budynki, które mogą być wykorzystywane wyłącznie dla tego rodzaju sztuki.informatyka profesor mark brown docenia potęgi nie komunikacji.nazywa się human-computer interakcji specjalistycznych, brązowe koncentruje się jego pracę nad się cech ludzkich zachowań w roboty lub małe litery.brown prowadzi drużynę, która jest tworzenie i rozwijanie różnych komputer algorytmów, w zależności od tego, jak ludzie komunikują się bez słowa.te algorytmy stosuje się następnie do programu urządzeń, jak roboty, patrzeć i działać bardziej ludzkim, przyczyniając się do wypełnienia luki między człowiekiem i maszyną.kluczową część ludzkiego robot lukę centrum komunikacyjnego.kiedy będziemy rozmawiać z kimś, słowa są nie tylko wpływ na słuchacz zrozumienia.inne czynniki, takie jak subtelne – ton głosu, język ciała i kontakt wzrokowy – również potężnym komunikatywny potencjał.trochę robotyki naukowcy skupiają się na gest, ton głosu i wyraz twarzy.ostatnio, na przykład, grupa naukowców w singapurze dopuszczonych programów komputerowych, których algorytm rozpoznaje ludzkich gestów szybko i dokładnie.testowali oprogramowania, łącząc to z shapetape specjalną kurtkę, która używa światłowody i czujniki monitoruje wyginanie i ręce i ramiona.w badaniach, pięć różnych użytkowników w shapetape kurtkę i użył go, by kontrolować wirtualne robot poprzez proste ramię projektów, że stanowiła rozkazuje, takich jak do przodu, do tyłu, szybciej lub wolniej.naukowców stwierdziła, że 99.15% gesty są prawidłowo przetłumaczone przez ich system.szczególnie ważnym osiągnięciem tego oprogramowania, jak łatwo można dodać nowe rozkazy, wykazując nowej kontroli gest, tylko kilka razy.kolejnym krokiem w kierunku poprawy gest uznania systemu jest umożliwienie ludziom, by kontrolować roboty bez konieczności nosić jakieś specjalne urządzenia.brown koncentrowała się jego ostatnich badań na ludzkie spojrzenie, aspekt komunikacji nie znajdzie najbardziej intrygujące."okazało się, że spojrzenie mówi nam wszystko o uwagę, na temat stanu psychicznego, o roli w rozmowach," mówi.na przykład, jeśli osoba koncentruje się jego lub jej spojrzenie na poszczególne podczas rozmowy z grupą ludzi, powiadomi o tym, co zostało powiedziane jest szczególnie istotne dla tej osoby.badania pokazują również, że kiedy ktoś kończy coś w rozmowie i kieruje swój wzrok na jednej konkretnej osoby, ta osoba może zrobić następny ruch głos w dyskusji.te niewerbalne wskazówki powiedzieć ludziom, gdzie nasza uwaga skupia się i co my mamy na myśli bezpośrednie pytania lub komentarze w rozmowie.kiedy ludzie to co oni mówią, że może otwórz oczy i spójrz na osoby mówią. i naprawdę chciał przekazać swoje przesłanie lub że facial i inne kwestie.w celu przeliczenia te subtelne wskazówki ludzkiej komunikacji w danych i w języku, który może być wykorzystywany przez robota, brown jest zespół przyjmuje to samo podejście, jak singapur zespół.wyważą każde ludzkie sygnał lub gest w chwili segmenty lub podmechanizmy –, takich jak kierunku oczy w kierunku głowy lub jak ciało jest zorientowana –, które mogą być modelem.potem pewnych zaburzeń wymiary są dodawane do modelu, takich jak długość czasu cel to obejrzeć.gdy budują roboty do ról w nauczaniu, na przykład, brown nie obejmuje tych zachowań w kontroli oprogramowania.zespół badawczy znalazł robot wspierana uczenia się poprawia, kiedy robota nauczycieli wykorzystuje te sygnały wzrokowe.
Está traduciendo, por favor espere..
 
Otros idiomas
El soporte de la herramienta de traducción: Chino tradicional, Detectar idioma, Indonesio, Klingon, afrikáans, albanés, alemán, amhárico, armenio, azerí, bengalí, bielorruso, birmano, bosnio, búlgaro, camboyano, canarés, catalán, cebuano, checo, chichewa, chino, cingalés, coreano, corso, criollo haitiano, croata, danés, eslovaco, esloveno, español, esperanto, estonio, euskera, finlandés, francés, frisio, gallego, galés, gaélico escocés, georgiano, griego, gujarati, hausa, hawaiano, hebreo, hindi, hmong, húngaro, igbo, inglés, irlandés, islandés, italiano, japonés, javanés, kazajo, kinyarwanda, kirguís, kurdo, lao, latín, letón, lituano, luxemburgués, macedonio, malayalam, malayo, malgache, maltés, maorí, maratí, mongol, neerlandés, nepalí, noruego, oriya, panyabí, pastún, persa, polaco, portugués, rumano, ruso, samoano, serbio, sesoto, shona, sindhi, somalí, suajili, sueco, sundanés, tagalo, tailandés, tamil, tayiko, telugu, turco, turkmeno, tártaro, ucraniano, uigur, urdu, uzbeco, vietnamita, xhosa, yidis, yoruba, zulú, árabe, traducción de idiomas.

Copyright ©2024 I Love Translation. All reserved.

E-mail: