So wouldn't it be amazing if our phones could see the world in the same way that we do, as we're walking around being able to point a phone at anything, and then have it actually recognize images and objects like the human brain, and then be able to pull in information from an almost infinite library of knowledge and experiences and ideas.
Well, traditionally that was seen as science fiction, but now we've moved to a world where actually this has become possible.
So the best way of explaining it is to just show it. What you can see over here is Tamara, who is holding my phone that's now plugged in. So let me start with this. What we have here is a painting of the great poet Rabbie Burns, and it's just a normal image, but if we now switch inputs over to the phone, running our technology, you can see effectively what Tamara's seeing on the screen, and when she points at this image, something magical happens.
(Bagpipes) (Bagpipes) (Bagpipes) Voice: Now simmer blinks on flowery braes...
Matt Mills: Now, what's great about this is, there's no trickery here. There's nothing done to this image. And what's great about this is the technology's actually allowing the phone to start to see and understand much like how the human brain does. Not only that, but as I move the object around, it's going to track it and overlay that content seamlessly. Again, the thing that's incredible about this is this is how advanced these devices have become. All the processing to do that was actually done on the device itself.
Now, this has applications everywhere, whether in things like art in museums, like you just saw, or in the world of, say, advertising, or print journalism.
So a newspaper becomes out of date as soon as it's printed. And here is this morning's newspaper, and we have some Wimbledon news, which is great. Now what we can do is point at the front of the newspaper and immediately get the bulletin.
Voice:... To the grass, and it's very important that you adapt and you, you have to be flexible, you have to be willing to change direction at a split second, and she does all that. She's won this title.
MM: And that linking of the digital content to something that's physical is what we call an aura, and I'll be using that term a little bit as we go through the talk.
So, what's great about this is it isn't just a faster, more convenient way to get information in the real world, but there are times when actually using this medium allows you to be able to display information in a way that was never before possible.
So what I have here is a wireless router. My American colleagues have told me I've got to call it a router, so that everyone here understands — — but nonetheless, here is the device. So now what I can do is, rather than getting the instructions for the device online, I can simply point at it, the device is recognized, and then --
Voice: Begin by plugging in the grey ADSL cable. Then connect the power. Finally, the yellow ethernet cable. Congratulations. You have now completed setup.
MM: Awesome. Thank you.
The incredible work that made that possible was done here in the U.K. by scientists at Cambridge, and they work in our offices, and I've got a lovely picture of them here. They couldn't all be on stage, but we're going to bring their aura to the stage, so here they are. They're not very animated. This was the fourth take, I'm told.
Okay. So, as we're talking about Cambridge, let's now move on to technical advancements, because since we started putting this technology on mobile phones less than 12 months ago, the speed and the processing in these devices has grown at a really phenomenal rate, and that means that I can now take cinema-quality 3D models and place them in the world around me, so I have one over here. Tamara, would you like to jump in?
MM: I should leap in. (Dinosaur roaring)
So then, after the fun, comes the more emotional side of what we do, because effectively, this technology allows you to see the world through someone's eyes, and for that person to be able to take a moment in time and effectively store it and tag it to something physical that exists in the real world. What's great about this is, the tools to do this are free. They're open, they're available to everyone within our application, and educators have really got on board with the classrooms. So we have teachers who've tagged up textbooks, teachers who've tagged up school classrooms, and a great example of this is a school in the U.K. I have a picture here from a video, and we're now going to play it.
Teacher: See what happens. Keep going.
Child: TV.
Child: Oh my God.
Teacher: Now move it either side. See what happens. Move away from it and come back to it.
Child: Oh, that is so cool.
Teacher: And then, have you got it again?
Child: Oh my God! How did you do that?
Second child: It's magic.
MM: So, it's not magic. It's available for everyone to do, and actually I'm going to show you how easy it is to do by doing one right now.
So, as sort of — I'm told it's called a stadium wave, so we're going to start from this side of the room on the count of three, and go over to here. Tamara, are you recording? Okay, so are you all ready? One, two, three. Go!
Audience: Whooo!
MM: Fellows are really good at that. (Laughs)
Okay. Now we're going to switch back into the Aurasma application, and what Tamara's going to do is tag that video that we just took onto my badge, so that I can remember it forever.
Now, we have lots of people who are doing this already, and we've talked a little bit about the educational side. On the emotional side, we have people who've done things like send postcards and Christmas cards back to their family with little messages on them. We have people who have, for example, taken the inside of the engine bay of an old car and tagged up different components within an engine, so that if you're stuck and you want to find out more, you can point and discover the information.
We're all very, very familiar with the Internet. In the last 20 years, it's really changed the way that we live and work, and the way that we see the world, and what's great is, we sort of think this is the next paradigm shift, because now we can literally take the content that we share, we discover, and that we enjoy and make it a part of the world around us. It's completely free to download this application. If you have a good Wi-Fi connection or 3G, this process is very, very quick.
Oh, there we are. We can save it now. It's just going to do a tiny bit of processing to convert that image that we just took into a sort of digital fingerprint, and the great thing is, if you're a professional user, -- so, a newspaper -- the tools are pretty much identical to what we've just used to create this demonstration. The only difference is that you've got the ability to add in links and slightly more content. Are you now ready?
Tamara Roukaerts: We're ready to go.
MM: Okay. So, I'm told we're ready, which means we can now point at the image, and there you all are.
MM on video: One, two, three. Go!
MM: Well done. We've been Aurasma. Thank you.
그래서 만약 우리의 휴대폰이 우리가 세상을 보는 것과 같은 방식으로 세상을 볼 수 있다면 놀랍지 않을까요? 우리가 걸어 다니면서 어떤 것이든 가리킬 수 있고, 그러고 나서 인간의 뇌와 같은 이미지와 사물을 인식하게 하고, 그리고 거의 무한한 지식, 경험, 아이디어의 도서관으로부터 정보를 끌어낼 수 있습니다.
글쎄요, 전통적으로 공상과학소설로 여겨졌지만, 지금은 실제로 이것이 가능한 세계로 옮겨가고 있습니다.
그래서 그것을 설명하는 가장 좋은 방법은 그냥 보여주는 것입니다. 지금 보시는 것은 타마라 씨입니다. 그는 지금 꽂혀있는 제 전화기를 들고 있습니다. 그럼 이것부터 시작해보죠. 여기 있는 것은 위대한 시인 랍비 번스의 그림이고, 그냥 평범한 이미지입니다. 하지만 이제 전화기로 입력을 바꿔서 우리의 기술을 작동시키면 타마라가 화면에서 무엇을 보고 있는지 효과적으로 볼 수 있습니다. 그리고 그녀가 이 이미지를 가리킬 때, 마법 같은 일이 일어납니다.
목소리: 이제 꽃무늬 브래지어에서 눈을 깜빡입니다.
맷 밀스: 자, 좋은 점은 여기에 속임수가 없다는 것입니다. 이 이미지에는 아무 작업도 없습니다. 그리고 이 기술의 대단한 점은 이 기술이 실제로 인간의 뇌가 하는 것처럼 전화를 보고 이해할 수 있게 한다는 것입니다. 그것뿐만 아니라, 제가 물체를 움직이면, 그것은 그것을 추적하고 그 내용을 매끄럽게 오버레이 할 것입니다. 다시 한번 놀라운 점은 이 장치들이 얼마나 발전했는가 하는 것입니다. 이를 위한 모든 과정은 실제로 기기 자체에서 이루어졌습니다.
이제, 이것은 어디에나 적용되고 있습니다. 여러분이 방금 보신 것처럼 박물관의 예술이나 광고, 인쇄 저널리즘의 세계에서도 마찬가지입니다.
그래서 신문은 인쇄되자마자 구식이 됩니다. 여기 오늘 아침 신문이 있습니다. 윔블던 뉴스입니다. 대단한 소식입니다. 이제 우리가 할 수 있는 것은 신문 앞면을 가리키고 즉시 게시판을 받는 것입니다.
목소리:...입니다. 잔디밭에, 그리고 적응하는 것이 매우 중요합니다. 여러분은 유연해야 합니다. 여러분은 짧은 순간에 방향을 바꿀 수 있어야 합니다. 그리고 그녀는 그 모든 것을 합니다. 그녀는 이 타이틀을 차지했습니다.
MM: 그리고 디지털 콘텐츠를 물리적인 무언가에 연결하는 것을 아우라라고 부릅니다. 그리고 저는 이야기를 진행하면서 그 용어를 조금 사용할 것입니다.
이 방법의 가장 좋은 점은 실제 세계에서 정보를 얻는 더 빠르고 편리한 방법이 아니라는 것입니다. 하지만 이 매체를 사용하면 이전에는 불가능했던 방식으로 정보를 표시할 수 있는 경우가 있습니다.
그래서 여기 있는 것은 무선 공유기입니다. 제 미국인 동료들은 제가 라우터라고 불러야 한다고 말했습니다. 여기 계신 모든 분들이 이해할 수 있도록 말이죠. 하지만, 여기 장치가 있습니다. 그래서 이제 제가 할 수 있는 것은, 온라인상에서 기기에 대한 설명을 얻는 대신, 간단하게 가리키면, 장치가 인식되고, 그다음에--
음성: 회색 ADSL 케이블을 꽂습니다. 그런 다음 전원을 연결합니다. 마지막으로 노란색 이더넷 케이블입니다. 축하해요. 이제 설치를 완료했습니다.
MM: 대단합니다. 감사해요.
이를 가능케 한 놀라운 연구는 여기 영국에서 케임브리지 대학의 과학자들이 해낸 것입니다. 그들은 우리 사무실에서 일합니다. 여기 사랑스러운 사진이 있습니다. 다 같이 무대에 서지는 못했는데 저희가 아우라를 불러올 거니까 이렇게 모셨습니다. 생동감이 별로 없어요. 이번이 네 번째 촬영이라고 들었어요
좋아요. 이제 케임브리지에 대해 이야기해보죠. 우리가 이 기술을 12개월 전에 휴대폰에 도입하기 시작한 이후로, 이 장치들의 속도와 처리 속도가 정말 놀라운 속도로 증가했고, 이제 저는 영화 수준의 3D 모델을 가져와서 그 기술을 워홀에 배치할 수 있게 되었습니다. 주변에 ld가 있어서 여기 있어요. 타마라 씨, 한번 타보실래요?
제가 뛰어들어야겠어요
그래서 재미가 끝나면, 우리가 하는 일의 감정적인 면을 보게 됩니다. 왜냐하면 효과적으로, 이 기술은 여러분이 누군가의 눈을 통해 세상을 볼 수 있게 해 주기 때문입니다. 그리고 그 사람이 시간을 갖고 그것을 효과적으로 저장하고 현실 세계에 존재하는 물리적인 것에 태그를 붙일 수 있게 해주기 때문입니다. 이러한 작업을 수행할 수 있는 툴은 무료입니다. 그것들은 열려있고, 우리 애플리케이션 내의 모든 사람들이 사용할 수 있습니다. 그리고 교육자들은 정말로 강의실에 참여했습니다. 그래서 우리는 교과서를 태그 한 선생님들과 학교 교실을 태그한 선생님들이 있습니다. 그리고 이것의 좋은 예는 영국의 한 학교입니다. 여기 동영상에서 찍은 사진이 있는데, 이제 재생해 보겠습니다.
선생님이요? 어떤 현상이 일어나는지 봐요. 계속하세요.
TV요 (아이들이 반응해요.
아이: 오, 세상에.
선생님이요? 이제 양쪽으로 움직여요. 어떤 현상이 일어나는지 봐요. 그것에서 멀어져서 다시 돌아오세요.
아이: 오, 정말 멋지네요.
선생님: 그럼, 또 받으셨나요?
아이: 오, 세상에! 어떻게 해서 말인가요?
둘째 아이입니다. 마법이죠.
MM: (Laugh) 그럼 이건 마술이 아니군요. 누구나 할 수 있고, 사실 지금 바로 하나를 하면 얼마나 쉽게 할 수 있는지 보여드리려고 합니다.
그래서, 일종의-- 저는 이것을 스타디움 웨이브라고 부릅니다. 그래서 우리는 방의 이쪽에서 셋을 세고, 여기로 넘어갈 것입니다. 타마라, 녹음하고 있어요? 좋아요, 준비됐나요? 하나 둘 셋 가!
시청자: 후 우우!
펠로우들은 정말 잘해요
이제 오라스 마 애플리케이션으로 돌아가서 타마라가 방금 찍은 비디오를 제 배지에 태그 하면 제가 영원히 기억할 수 있어요
자, 이미 이 일을 하고 있는 많은 분들이 계시는데, 교육적인 부분에 대해서는 조금 이야기했습니다. 감정적인 측면에서는, 우리는 엽서와 크리스마스 카드를 작은 메시지와 함께 가족에게 보내는 것과 같은 일들을 한 사람들이 있습니다. 예를 들어, 오래된 자동차의 엔진 베이 내부를 가져와서 엔진 안에 다른 부품들을 부착하는 사람들이 있습니다. 그래서 만약 여러분이 갇혀서 더 많은 것을 알고 싶다면, 여러분은 그 정보를 가리키고 발견할 수 있습니다.
우리는 모두 인터넷에 매우 익숙합니다. 지난 20년 동안, 그것은 우리가 살고 일하는 방식을 변화시켰습니다. 그리고 우리가 세상을 보는 방식도 변화시켰죠. 그리고 대단한 것은 이것이 다음 패러다임의 변화라고 생각한다는 것입니다. 왜냐하면 이제 우리는 문자 그대로 우리가 공유하고, 발견하고, 그것을 즐기고, 우리 주변의 세계의 일부로 만들 수 있기 때문입니다. 이 애플리케이션을 다운로드하는 것은 완전히 무료입니다. Wi-Fi 연결이나 3G가 잘 되어 있다면 이 과정은 매우 매우 빠릅니다.
오, 여기 있네요. 이제 살릴 수 있어요 우리가 방금 찍은 이미지를 디지털 지문으로 변환하기 위해 약간의 과정을 거치면 됩니다. 그리고 대단한 것은, 전문 사용자라면, 신문입니다. 이 도구는 우리가 이 데모를 만들기 위해 사용한 도구와 거의 비슷하다는 것입니다. 유일한 차이점은 링크를 추가하고 콘텐츠를 약간 더 추가할 수 있다는 것입니다. 이제 준비됐나요?
타마라 루카 에르츠입니다. 우린 갈 준비가 됐어요.
MM: 좋아요. 그래서, 저는 우리가 준비가 되었다는 것을 말했고, 그 말은 이제 우리가 이미지를 가리키면 됩니다. 그리고 여러분 모두 여기 있습니다.
MM은 비디오에 나옵니다. 하나 둘 셋 가!
MM: 잘했어요. 지금까지 오라스 마였습니다. 감사해요.
<줄기세포를 이용한 연구의 약속> 주제 테드 강의 번역(수잔 솔로몬, Susan Solomon) (0) | 2022.03.01 |
---|---|
<증강 현실 지도>에 대한 테드 강의 번역(블레즈 아귀에라 이 아르카스, Blaise Agüera y Arcas) (0) | 2022.02.28 |
<스티븐 호킹의 제로g 비행>에 관한 테드 강의 번역(피터 다이아만디스, Peter Diamandis) (0) | 2022.02.25 |
<마법 같은 이야기 (증강현실)> 주제 테드 강의 번역(마르코 템페스트, Marco Tempest) (0) | 2022.02.24 |
<공중부양하는 초전도체> 주제 테드 강의 번역(보아즈 알모그) (0) | 2022.02.23 |
댓글 영역