본문 바로가기
영어공부

[BBC 6mins English] Can AI have a mind of its own?/ mp3 음원 / 대본 pdf / 한글해석

by 흥청 2023. 4. 15.
728x90

안녕하세요. 오늘의 BBC 영어 공부입니다. 

 

Can AI have a mind of its own?
AI는 자기 자신의 마음을 가질 수 있을까?

 

 

음원과 대본은 아래 첨부해두었으니 필요하신 분들은 다운받아주세요.

* 한글 해석본은 내용 이해를 위한 참고용으로만 사용해주세요.

 

230126_6min_english_AI_conscious.pdf
0.13MB
230126_6min_english_AI_conscious_download.mp3
7.10MB

 

 

[오늘의 단어]

 

chatbot  사람과 대화할 수 있는 컴퓨터 프로그램
computer programme designed to have conversations with humans over the internet

 

cognitive 인지의
connected with the mental processes of thinking, knowing, learning and understanding

 

wishful thinking 희망 사항
something which is unlikely to come true in the future

 

anthropomorphise 의인화하다
treat an animal or object as if it were human

 

blindsided 기습 당한
unpleasantly surprised

 

get/be taken in (by) someone 누군가에게 속다
be deceived or tricked by someone

 

BBC learning english 'Can AI have a mind of its own?'


Sam
Hello. This is 6 Minute English from BBC Learning English. I’m Sam.

 

안녕하세요. BBC 영어학습 6분입니다.  저는 샘입니다.

 

Neil
And I’m Neil.

 

그리고 전 닐입니다.

 

Sam
In the autumn of 2021, something strange happened at the Google headquarters in California’s Silicon Valley. A software engineer called, Blake Lemoine, was working on the artificial intelligence project, ‘Language Models for Dialogue Applications’, or LaMDA for short. LaMDA is a chatbot – a computer programme designed to have conversations with humans over the internet.

 

2021년 가을, 캘리포니아 실리콘 밸리에 있는 구글 본사에서 이상한 일이 일어났습니다. Blake Lemoine이라고 불리는 소프트웨어 엔지니어는 인공지능 프로젝트인 '대화 응용 프로그램을 위한 언어 모델' 또는 줄여서 LaMDA를 연구하고 있었습니다. LaMDA는 인터넷을 통해 인간과 대화하도록 설계된 컴퓨터 프로그램인 챗봇입니다.

 

Neil
After months talking with LaMDA on topics ranging from movies to the meaning of life, Blake came to a surprising conclusion: the chatbot was an intelligent person with wishes and rights that should be respected. For Blake, LaMDA was a Google employee, not a machine. He also called it his ‘friend’.

 

영화에서 삶의 의미에 이르기까지 다양한 주제에 대해 LaMDA와 몇 달 동안 대화한 후, Blake는 놀라운 결론에 도달했습니다. 챗봇은 존중되어야 할 소망과 권리를 가진 지적인 사람이었습니다. Blake에게 LaMDA는 기계가 아닌 구글 직원이었습니다. 그는 또한 그것을 자신의 '친구'라고 불렀습니다.

 

Sam
Google quickly reassigned Blake from the project, announcing that his ideas were not supported by the evidence. But what exactly was going on? 

 

구글은 블레이크의 아이디어가 증거에 의해 뒷받침되지 않는다고 발표하면서 재빨리 그 프로젝트에서 블레이크를 재배치했습니다. 하지만 정확히 무슨 일이 있었던 걸까요?

 

Neil
In this programme, we’ll be discussing whether artificial intelligence is capable of consciousness. We’ll hear from one expert who thinks AI is not as intelligent as we sometimes think, and as usual, we’ll be learning some new vocabulary as well.

 

이 프로그램에서, 우리는 인공지능이 의식을 할 수 있는지에 대해 토론할 것입니다. 우리는 AI가 우리가 가끔 생각하는 것만큼 지능적이지 않다고 생각하는 한 전문가의 말을 들을 것이고, 평소처럼, 우리는 새로운 어휘들도 배우게 될 것입니다.

 

Sam
But before that, I have a question for you, Neil. What happened to Blake Lemoine is strangely similar to the 2013 Hollywood movie, Her, starring Joaquin Phoenix as a lonely writer who talks with his computer, voiced by Scarlett Johansson. But what happens at the end of the movie? Is it:

a)    the computer comes to life?

b)    the computer dreams about the writer?  or,

c)    the writer falls in love with the computer? 

 

하지만 그 전에 질문이 있어요, 닐. 블레이크 르모인에게 일어난 일은 2013년 호아킨 피닉스가 스칼렛 요한슨이 목소리를 맡은 외로운 작가로 출연한 할리우드 영화 'her'와 묘하게 비슷합니다. 하지만 영화의 마지막에 무슨 일이 일어날까요? 다음과 같은 경우:

a) 컴퓨터가 살아나나요?
b) 컴퓨터는 작가의 꿈을 꾸나요? 아니면,
c) 작가가 컴퓨터와 사랑에 빠졌나요?

 

Neil
… c) the writer falls in love with the computer.

 

… c) 작가는 컴퓨터와 사랑에 빠집니다.

 

Sam
OK, Neil, I’ll reveal the answer at the end of the programme. Although Hollywood is full of movies about robots coming to life, Emily Bender, professor of linguistics and computing at the University of Washington, thinks AI isn’t that smart. She thinks the words we use to talk about technology, phrases like ‘machine learning’, give a false impression about what computers can and can’t do.

 

좋아요, 닐, 프로그램의 마지막에 답을 공개하겠습니다. 비록 할리우드는 로봇이 살아나는 것에 관한 영화들로 가득하지만, 워싱턴 대학의 언어학과 컴퓨팅 교수인 에밀리 벤더는 AI가 그렇게 똑똑하지 않다고 생각합니다. 그녀는 우리가 기술에 대해 이야기할 때 사용하는 단어들, '기계 학습'과 같은 문구들이 컴퓨터가 할 수 있는 것과 할 수 없는 것에 대해 잘못된 인상을 준다고 생각합니다.

 

Neil
Here is Professor Bender discussing another misleading phrase, ‘speech recognition’, with BBC World Service programme, The Inquiry:

 

Bender 교수는 BBC World Service 프로그램인 The Inquiry와 함께 또 다른 오해의 소지가 있는 문구인 '음성 인식'에 대해 논의하고 있습니다:

 

Professor Emily Bender
If you talk about ‘automatic speech recognition’, the term ‘recognition’ suggests that there's something cognitive going on, where I think a better term would be automatic transcription. That just describes the input-output relation, and not any theory or wishful thinking about what the computer is doing to be able to achieve that.

 

만약 여러분이 '자동 음성 인식'에 대해 말한다면, '인식'이라는 용어는 뭔가 인지적인 일이 일어나고 있다는 것을 암시합니다. 제가 생각하기에 더 좋은 용어는 자동 기록입니다. 그것은 단지 입출력 관계를 설명하는 것일 뿐, 컴퓨터가 그것을 달성하기 위해 무엇을 하고 있는지에 대한 이론이나 희망적인 생각은 아닙니다.

 

Sam
Using words like ‘recognition’ in relation to computers gives the idea that something cognitive is happening – something related to the mental processes of thinking, knowing, learning and understanding.

 

컴퓨터와 관련하여 '인식'과 같은 단어를 사용하는 것은 무언가 인지적인 일이 일어나고 있다는 생각, 즉 사고, 알고, 배우고, 이해하는 정신적 과정과 관련된 것을 줍니다.

 

Neil
But thinking and knowing are human, not machine, activities. Professor Benders says that talking about them in connection with computers is wishful thinking – something which is unlikely to happen.

 

하지만 생각하고 아는 것은 기계가 아니라 인간의 활동입니다. 벤더스 교수는 컴퓨터와 관련하여 그들에 대해 이야기하는 것은 희망적인 생각이라고 말합니다. 이것은 일어날 것 같지 않은 일입니다.

 

Sam
The problem with using words in this way is that it reinforces what Professor Bender calls, technical bias – the assumption that the computer is always right. When we encounter language that sounds natural, but is coming from a computer, humans can’t help but imagine a mind behind the language, even when there isn’t one.

 

이런 식으로 단어를 사용하는 것의 문제는 컴퓨터가 항상 옳다는 가정인 기술적 편견이라는 벤더 교수의 말을 강화한다는 것입니다. 우리가 자연스럽게 들리지만 컴퓨터에서 나오는 언어를 마주칠 때, 인간은 그 언어 뒤에 있는 마음을 상상하지 않을 수 없습니다. 심지어 그것이 없을 때도 말이죠.

 

Neil
In other words, we anthropomorphise computers – we treat them as if they were human. Here’s Professor Bender again, discussing this idea with Charmaine Cozier, presenter of BBC World Service’s, the Inquiry.

 

다시 말해서, 우리는 컴퓨터를 의인화합니다. 우리는 그들을 인간인 것처럼 취급합니다. 여기 벤더 교수가 BBC 월드 서비스 인콰이어리의 진행자인 샤메인 코지어와 이 아이디어에 대해 다시 논의하고 있습니다.

 

Professor Emily Bender
So ‘ism’ means system, ‘anthro’ or ‘anthropo’ means human, and ‘morph’ means shape… And so this is a system that puts the shape of a human on something, and in this case the something is a computer. We anthropomorphise animals all the time, but we also anthropomorphise action figures, or dolls, or companies when we talk about companies having intentions and so on. We very much are in the habit of seeing ourselves in the world around us. 

 

그래서 'ism'은 체계를 의미하고, 'anthro'나 'anthropo'는 사람을 의미하며, 'morph'는 모양을 의미합니다… 그래서 이것은 어떤 것에 사람의 모양을 넣는 시스템입니다. 이 경우에는 그 무엇이 컴퓨터입니다. 우리는 항상 동물들을 의인화합니다. 하지만 우리는 또한 회사들이 의도를 가지고 있다고 말할 때, 액션 피규어나 인형, 혹은 회사들을 의인화합니다. 우리는 우리 주변의 세상에서 우리 자신을 보는 습관이 있습니다.

 

Charmaine Cozier
And while we’re busy seeing ourselves by assigning human traits to things that are not, we risk being blindsided.

 

그리고 우리는 인간의 특성을 그렇지 않은 것들에 할당함으로써 우리 자신을 보느라 바쁠 때, 우리는 기습 당할 위험을 감수합니다.

 

Emily Bender
The more fluent that text is, the more different topics it can converse on, the more chances there are to get taken in.

 

텍스트가 유창할수록 대화할 수 있는 주제가 다양할수록, 더 속을 가능성이 있습니다.

 

Sam
If we treat computers as if they could think, we might get blindsided, or unpleasantly surprised. Artificial intelligence works by finding patterns in massive amounts of data, so it can seem like we’re talking with a human, instead of a machine doing data analysis. As a result, we get taken in – we’re tricked or deceived into thinking we’re dealing with a human, or with something intelligent.

 

만약 우리가 컴퓨터를 그들이 생각할 수 있는 것처럼 대한다면, 우리는 기습당하거나 불쾌하게 놀랄지도 모릅니다. 인공지능은 방대한 양의 데이터에서 패턴을 발견함으로써 작동하기 때문에, 우리가 데이터 분석을 하는 기계 대신에 인간과 대화하는 것처럼 보일 수 있습니다. 결과적으로, 우리는 속아 넘어가거나 속아서 우리가 인간이나 지적인 것을 상대하고 있다고 생각하게 됩니다.

 

Neil
Powerful AI can make machines appear conscious, but even tech giants like Google are years away from building computers that can dream or fall in love. Speaking of which, Sam, what was the answer to your question?

 

강력한 인공지능은 기계를 의식적으로 보이게 만들 수 있지만, 구글과 같은 거대 기술 기업들도 꿈을 꾸거나 사랑에 빠질 수 있는 컴퓨터를 만드는 데는 몇 년이 걸립니다. 말이 나와서 말인데, 샘, 당신 질문에 대한 대답은 무엇이었습니까?

 

Sam
I asked what happened in the 2013 movie, Her. Neil thought that the main character falls in love with his computer, which was the correct answer!

 

저는 2013년 영화 'her'에서 무슨 일이 있었는지 물었습니다. 닐은 주인공이 그의 컴퓨터와 사랑에 빠진다고 생각했는데, 그것이 정답이었습니다!

 

Neil
OK. Right, it’s time to recap the vocabulary we’ve learned from this programme about AI, including chatbots - computer programmes designed to interact with humans over the internet.

 

좋아요. 자, 이제 이 프로그램에서 배운 인공지능에 대한 어휘를 요약할 시간입니다. 여기에는 인터넷을 통해 인간과 상호 작용하도록 설계된 컴퓨터 프로그램인 챗봇이 포함됩니다.

 

Sam
The adjective cognitive describes anything connected with the mental processes of knowing, learning and understanding. 

 

인지라는 형용사는 알고, 배우고, 이해하는 정신적 과정과 관련된 모든 것을 설명합니다.

 

Neil
Wishful thinking means thinking that something which is very unlikely to happen might happen one day in the future.

 

wishful thinking(희망 사항)은 일어날 것 같지 않은 일이 미래에 언젠가 일어날 수도 있다고 생각하는 것을 의미합니다.

 

Sam
To anthropomorphise an object means to treat it as if it were human, even though it’s not.

 

사물을 의인화한다는 것은 비록 그렇지 않더라도 사람인 것처럼 대한다는 것을 의미합니다.

 

Neil
When you’re blindsided, you’re surprised in a negative way.

 

당신이 눈이 멀면, 당신은 부정적인 방식으로 놀랍니다.

 

Sam
And finally, to get taken in by someone means to be deceived or tricked by them. My computer tells me that our six minutes are up! Join us again soon, for now it’s goodbye from us.

 

그리고 마지막으로, 누군가에게 get taken in 한다는 것은 그들에게 속거나 속는 것을 의미합니다. 내 컴퓨터는 우리의 6분이 끝났다고 말해줍니다! 곧 다시 만나요, 지금은 저희와 작별입니다.

 

Neil
Bye!

 

안녕!

728x90