Lesson 2 Humans and Technology
Teen-Designed Tech for Improving Access
접근성 향상을 위해 십 대 청소년이 고안한 기술
At least one billion people, or 15% of the world’s population, experience some form of disability.
적어도 10억 명, 즉 전 세계 인구의 15%는 어떠한 형태의 장애를 겪고 있다.
In order to fully function in everyday life, they need to have the same physical and social access to the places, goods, and services in their communities as everyone else.
이들이 일상에서 온전히 활동하려면 다른 모두와 동일하게 공동체 내의 장소, 재화 및 서비스에 물리적으로나 사회적으로 접근할 수 있어야 한다.
For many of them, however, access still remains an issue.
그러나 많은 경우 접근은 여전히 문제가 되고 있다.
Here are two teenagers who presented new inventions to tackle the issue at an international science competition.
국제 과학 경연 대회에 이 문제를 해결하기 위한 새 발명품을 내놓은 두 십 대 청소년을 여기에서 소개한다
3D Braille Map
3차원 점자 지도
While thinking about her homework, Seoyoung Jun closed one eye and successfully picked up her pencil holder.
숙제를 생각하다가 Seoyoung Jun은 한쪽 눈을 감은 채로 문제 없이 연필꽂이를 집어들었다.
At that moment, she realized that orienting herself in a 3D space didn’t require both eyes.
그 순간 Seoyoung은 3차원 공간에서 자기 위치를 인식하는 데에 양쪽 눈이 필요하지는 않음을 알았다.
This surprised her.
Seoyoung에게는 이것이 놀라웠다.
With research, she learned that the brain can process 3D information without any vision at all.
조사를 통해 Seoyoung은 뇌가 시각이 전혀 없더라도 3차원 정보를 처리할 수 있다는 것을 알게 되었다.
And with that, the idea for a new device for people with visual disabilities was born.
이렇게 시각 장애를 가진 사람들을 위한 새로운 장치에 대한 아이디어가 탄생했다.
Those who have lost sight get their spatial information mainly from touch, not vision.
시각을 잃은 사람들은 시각이 아니라 주로 촉각으로부터 공간에 대한 정보를 얻는다.
She based her new navigation device on this fact.
Seoyoung의 새로운 길 안내 장치는 이 사실에 기반을 두었다.
This little device sends a beam of infrared light to gather 3D information about what may lie around the user, including walls and furniture.
이 작은 장치는 적외선광을 보내서 벽과 가구를 포함하여 사용자 주위에 놓여 있을 수 있는 것들에 관한 3차원 정보를 수집한다.
The bounced beam conveys that information to the device, which then raises little pins to indicate where those obstacles are.
반사된 적외선이 그 정보를 장치에 전송하는데, 그러면 장치는 장애물이 있는 곳을 나타내도록 작은 핀들을 올린다.
By “reading” the positions and heights of those pins, the user can understand the arrangement of structures and objects lying ahead and navigate around them.
그 핀들의 위치와 높낮이를 ‘읽음’으로써, 사용자는 앞에 놓인 구조물과 물체들의 배치를 파악하고 그것들을 비켜갈 수 있다.
The heart of this device is a 3D depth sensor connected to a small computer.
이 장치의 핵심은 작은 컴퓨터에 연결된 3차원 심도 감지기이다.
Seoyoung coded the computer to control the nine motors lined up in three rows of three so that each motor could move a pin up and down.
Seoyoung은 컴퓨터가 세 개씩 세 줄로 배열된 아홉 개의 모터를 조종해서 각 모터가 하나의 핀을 위아래로 움직일 수 있도록 프로그램을 짰다.
The sensor can scan eighteen blocks of space before it, each 0.06 m3 in size.
감지기는 그 앞에 있는 0.06 m3 크기의 상자 모양의 공간 열여덟 개를 훑을 수 있다.
When it detects an obstacle in any of these blocks, the corresponding pin rises to either the middle or high position, depending on the height of the obstacle.
이 상자들 중 어느 것에서라도 장애물을 감지하면, 그 장애물의 높이에 따라 해당 핀이 중간 또는 상부 위치로 올라간다.
By running your hand over the nine pins, you can tell where the obstacles are and how high they are.
아홉 개의 핀 위에 손을 대서, 어디에 장애물이 있고 높이는 어느 정도인지를 알 수 있게 된다.
When Seoyoung’s device worked for the first time, she didn’t believe it.
최초로 Seoyoung의 장치가 작동했을 때 그녀는 믿기지 않았다.
To be sure it wasn’t a mistake, she shut it off and rebooted it.
잘못된 게 아니라는 걸 확인하기 위해 장치를 끄고 다시 가동했다.
When it worked again, she started screaming with joy.
다시 작동하자 Seoyoung은 기쁜 나머지 소리를 질렀다.
It had been seven long months of research, building, and testing.
7개월이라는 긴 시간이 연구와 제작, 그리고 시험에 소요되었다.
She imagines a future version that could be connected to a smartphone, with more pins and more height positions.
Seoyoung은 스마트폰에 연결될 수 있고, 더 많은 핀과 높이 단계가 있는 앞으로의 버전을 그리고 있다.
Sign Language-to-Speech App
수어-음성 변환 앱
As a coder, Nand Vinchhi wanted to invent something that didn’t require a mechanical device.
컴퓨터 프로그래머로서 Nand Vinchhi는 기계 장치를 필요로 하지 않는 무언가를 발명하고 싶었다.
One day, he was brainstorming with friends, and the group came up with an idea for an app that could translate sign language.
어느 날, 그는 친구들과 자유롭게 생각을 나누고 있었고, 그들은 수어를 번역하는 앱에 대한 아이디어를 떠올렸다.
In the end, they decided not to develop it, but Nand couldn’t stop thinking about the translator.
결국 그들은 그것을 개발하지 않기로 했지만, Nand는 번역 앱 생각을 떨칠 수가 없었다.
In just a few months, he developed an app based on artificial intelligence for translating American Sign Language (ASL) in real time.
단 몇 달 만에 그는 미국식 수어를 실시간 번역하는 인공 지능 기반의 앱을 개발했다.
Nand’s app was basically a speech-to-text app for sign language, where hand movements corresponded to speech.
Nand의 앱은 기본적으로 수어 대상의 말-문자 변환 앱이었고, 여기에서는 손동작이 말에 해당했다.
The hardest part was figuring out how to make the app recognize hand gestures.
가장 어려운 부분은 앱이 손동작을 인식하게 만드는 방법을 찾는 것이었다.
At times, he felt he was stuck.
때로는 꼼짝도 못하는 느낌이 들었다.
When that happened, he would go to sleep.
그럴 때면, 그는 잠을 자곤 했다.
For Nand, sleeping on it paid off.
하룻밤을 자며 생각하는 방법은 Nand에게 효과가 있었다.
He decided to focus on the body parts which are important in signing, such as individual fingertips.
그는 각각의 손가락 끝과 같이 수어를 쓸 때 중요한 신체 부위에 초점을 맞추기로 했다.
Using a machine-learning program, he then taught the app to identify those key points in the videos he took.
그런 다음 그는 기계 학습 프로그램을 이용해서 그가 찍은 영상 속에서 그 주요 지점들을 앱이 식별하도록 학습시켰다.
When the user runs the app, gestures are captured by the camera.
사용자가 앱을 실행하면 카메라는 동작을 포착한다.
Then, the app uses an algorithm to match the movements with words in ASL, which are turned into text and then spoken aloud.
그러면 앱은 알고리즘을 통해 동작에 맞는 미국식 수어의 어휘를 찾고, 이것이 문자로 변환된 뒤 발화된다.
According to Nand, his system now translates signs with 90.4% accuracy, and the delay from signing to translation is only about three-tenths of a second.
Nand에 의하면, 그의 시스템은 현재 90.4%의 정확도로 수어를 번역하고, 수어에서 번역까지 지연되는 시간은 약 0.3초에 불과하다.
He imagines the technology could someday become part of existing communication platforms.
그는 이 기술이 언젠가 현재 사용되는 의사소통 플랫폼의 일부가 될 것을 꿈꾼다.
That could help ASL speakers communicate with those who don’t know the language.
그것은 미국식 수어를 사용하는 사람들이 그 수어를 모르는 이들과 대화하는 데 도움이 될 것이다.
What these inventions have in common is a creative use of technology to enhance the daily lives of people with disabilities.
이 발명품들의 공통점은 장애를 가진 이들의 일상의 질을 높이기 위해 기술을 창조적으로 활용했다는 것이다.
Their efforts will go a long way toward a more accessible world for all.
그들의 노력은 모든 이들에게 보다 접근이 용이한 세상이 되는 데에 큰 도움이 될 것이다.
2과 Read More
Self-Driving Cars
자율 주행 자동차
Cars are now making steps toward their own kind of freedom; that is, freedom from people.
자동차는 이제 자신만의 자유를 향해 나아가고 있다. 즉, 사람들로부터의 자유이다.
The goal is to build a car that uses artificial intelligence so that it thinks and drives like a human.
목표는 인간처럼 생각하고 운전할 수 있도록 인공 지능을 사용하는 자동차를 만드는 것이다.
The technology for a self-driving car has reached the point where it is becoming increasingly accessible.
자율 주행 자동차 기술은 점점 더 접근 가능한 수준에 이르렀다.
Self-driving cars have clear advantages.
자율 주행 자동차에는 분명한 장점이 있다.
Most of all, sitting behind the wheel would no longer be limited by age or ability.
무엇보다, 운전대에 앉는 것이 더 이상 나이나 능력의 제한을 받지 않을 것이다.
For example, a person who has lost sight could rely on a self-driving car to go from one place to another.
예를 들어, 시각 장애인은 자율 주행 자동차를 이용해 한 장소에서 다른 장소로 이동할 수 있다.
Furthermore, most accidents are caused by careless people on the road.
게다가, 대부분의 사고는 도로에서 부주의한 사람들에 의해 발생한다.
For example, many crashes are caused by people using their phones while driving, falling asleep at the wheel, or driving while drunk.
예를 들어, 많은 충돌은 운전 중에 휴대 전화를 사용하거나, 운전대를 잡고 졸거나, 음주 상태에서 운전을 하는 사람들로 인해 발생한다.
With a self-driving car, people would not need to worry about such situations on the road.
자율 주행 자동차가 있다면 사람들은 도로 위에서 그런 상황을 걱정할 필요가 없을 것이다.
However, there are also some serious concerns when it comes to the safety of self-driving cars, since the technology is still far from perfect.
하지만 기술이 아직 완벽하지 않기 때문에, 자율 주행 자동차의 안전성을 놓고 보면 심각한 우려 역시 존재한다.
In fact, a self-driving car depends only on its sensors, GPS, and computer programs to work properly.
실제로, 자율 주행 자동차는 제대로 작동하기 위해 센서, GPS, 컴퓨터 프로그램에만 의존한다.
If any of these broke down or were used for unintended purposes, then the safety and security of the rider as well as other people on the road could be put at risk.
이들 중 어느 것이라도 고장이 나거나 의도하지 않은 목적으로 사용된다면, 탑승자는 물론 도로에 있는 다른 사람들의 안전과 보안이 위험에 처할 수 있다.