본문 바로가기
영어공부

[BBC 6mins English] Should we fear chatbots?/ mp3 음원 / 대본 pdf / 한글해석

by 흥청 2023. 12. 5.
728x90

안녕하세요. 오늘의 6분 BBC 영어 공부입니다.

 

Should we fear chatbots?
챗봇을 두려워해야할까?

 

 

음원과 대본은 아래 첨부해두었으니 필요하신 분들은 다운받아주세요.

* 한글 해석본은 내용 이해를 위한 참고용으로만 사용해주세요.

 

230706_6_minute_english_chatbots.pdf
0.12MB
230706_6_minute_english_chatbots_download.mp3
11.72MB

 

[오늘의 단어]

 

sophisticated 세련된
describes technology that is more advanced and complex

 

coherent 일관성 있는
clear, carefully considered and sensible

 

authoritative 권위 있는
respected, accurate and important sounding

 

on guard 신중하고 경계하는
careful and alert

 

provoke 자극하는
do something that causes a reaction from someone

 

sentient 지각 있는
living thing that experiences feelings 

 


[Should we fear chatbots? 한글 해석본]

 

Neil
Hello. This is 6 Minute English from BBC Learning English. I’m Neil.

 

안녕하세요. BBC Learning English입니다. 닐입니다.

 

Rob
And I’m Rob.

 

그리고 전 롭입니다.

 

Neil
Now, I’m sure most of us have interacted with a chatbot. These are bits of computer technology that respond to text with text or respond to your voice. You ask it a question and it usually comes up with an answer!

 

이제, 저는 우리 대부분이 챗봇과 상호작용을 해봤을 것이라고 확신합니다. 이것들은 텍스트에 텍스트로 응답하거나 음성으로 응답하는 컴퓨터 기술의 일부입니다. 여러분이 그것에 질문을 하면 보통 답이 나옵니다!

 

Rob
Yes, it’s almost like talking to another human, but of course it’s not – it’s just a clever piece of technology. It is becoming more sophisticated – more advanced and complex, but could they replace real human interaction altogether?

 

맞아요, 이것은 마치 다른 사람과 대화하는 것과 비슷하지만, 당연히 그렇지 않습니다 – 이것은 단지 영리한 기술입니다. 이것은 점점 더 정교해지고 있습니다 – 더 발전되고 복잡해지지만, 이것들이 실제 인간의 상호작용을 완전히 대체할 수 있을까요?

 

Neil
We’ll discuss that more in a moment and find out if chatbots really think for themselves. But first I have a question for you, Rob. The first computer program that allowed some kind of plausible conversation between humans and machines was invented in 1966, but what was it called? Was it:

a)     ALEXA

b)     ELIZA

c)     PARRY

 

우리는 잠시 후에 그것에 대해 더 논의하고 챗봇이 정말로 스스로 생각하는지 알아보겠습니다. 하지만 먼저, 롭. 인간과 기계 사이에 일종의 그럴듯한 대화를 할 수 있게 해준 최초의 컴퓨터 프로그램이 1966년에 발명되었는데, 이름이 무엇이었을까요:
a) 알렉사
b) 엘리자
c) 패리

 

Rob
It’s not Alexa – that’s too new – so I’ll guess c) PARRY.

 

알렉사가 아닙니다 – 그건 너무 새롭기 때문에 c) 패리라고 추측합니다.

 

Neil
I’ll reveal the answer at the end of the programme. Now, the old chatbots of the 1960s and 70s were quite basic, but more recently, the technology is able to predict the next word that is likely to be used in a sentence, and it learns words and  sentence structures.

 

프로그램의 마지막 부분에서 답을 밝히겠습니다. 이제 1960년대와 70년대의 오래된 챗봇은 상당히 기본적이었지만, 최근에는 기술을 통해 문장에 사용될 가능성이 높은 다음 단어를 예측하고 단어와 문장 구조를 학습합니다.

 

Rob
It’s clever stuff. I’ve experienced using them when talking to my bank - or when I have problems trying to book a ticket on a website. I no longer phone a human but I speak to a ‘virtual assistant’ instead. Probably the most well-known chatbot at the moment is ChatGTP.

 

기발한 것이죠. 은행과 통화할 때나 웹사이트에서 티켓을 예약하는 데 문제가 있을 때 사용해본 적이 있습니다. 저는 더 이상 사람에게 전화하지 않고 '가상 비서'에게 전화합니다. 현재 가장 잘 알려진 챗봇은 ChatGTP일 것입니다.

 

Neil
It is. The claim is it’s able to answer anything you ask it. This includes writing students’ essays. This is something that was discussed on the BBC Radio 4 programme, Word of Mouth. Emily M Bender, Professor of Computational Linguistics at the University of Washington, explained why it’s dangerous to always trust what a chatbot is telling us…

 

그렇습니다. 이것은 여러분이 질문하는 어떤 것에도 대답할 수 있다는 것입니다. 이것은 학생들의 에세이를 쓰는 것을 포함합니다. 이것은 BBC 라디오 4 프로그램인 입소문에서 논의되었던 것입니다. 워싱턴 대학교의 컴퓨터 언어학 교수인 에밀리 엠 벤더는 챗봇이 우리에게 말하는 것을 항상 믿는 것이 위험한 이유를 설명했습니다…

 

Emily M Bender, Professor of Computational Linguistics at the University of Washington
We tend to react to grammatical fluent coherent seeming text as authoritative and reliable and valuable - and we need to be on guard against that, because what's coming out of ChatGTP is none of that.

 

우리는 문법적으로 유창한 일관성 있는 텍스트에 대해 권위적이고 신뢰할 수 있으며 가치 있는 것으로 반응하는 경향이 있습니다. ChatGTP에서 나오는 것은 그런 것이 아니기 때문에 이에 대해 경계해야 합니다.

 

Rob
So, Professor Bender says that well written text that is coherent – that means it’s clear, carefully considered and sensible – makes us think what we are reading is reliable and authoritative. So it is respected, accurate and important sounding.

 

그래서, 벤더 교수는 잘 쓰여진 글이 분명하고, 신중하게 고려되고, 분별력이 있다는 것을 의미하며, 잘 쓰여진 글은 우리가 읽고 있는 것이 신뢰할 수 있고 권위적이라고 생각하게 만든다고 말합니다. 그래서 그것은 존중되고, 정확하며, 중요한 소리라고 말합니다.

 

Neil
Yes, chatbots might appear to write in this way, but really, they are just predicting one word after another, based on what they have learnt. We should, therefore, be on guard – be careful and alert about the accuracy of what we are being told. 

 

네, 챗봇은 이런 식으로 글을 쓰는 것처럼 보일 수 있지만, 실제로 챗봇은 학습한 내용을 바탕으로 단어를 하나씩 예측하고 있을 뿐입니다. 따라서 우리는 경계해야 합니다 – 우리가 듣고 있는 것의 정확성에 대해 조심하고 경계해야 합니다.

 

Rob
One concern is that chatbots – a form of artificial intelligence – work a bit like a human brain in the way it can learn and process information. They are able to learn from experience - something called deep learning.

 

한가지 걱정은 인공지능의 한 형태인 챗봇이 정보를 배우고 처리하는 방식에 있어서 인간의 뇌와 약간 비슷하다는 것입니다. 그들은 경험으로부터 배울 수 있습니다 - 딥 러닝이라고 불리는 것.

 

Neil
A cognitive psychologist and computer scientist called Geoffrey Hinton, recently said he feared that chatbots could soon overtake the level of information that a human brain holds. That’s a bit scary isn’t it?

 

인지 심리학자이자 컴퓨터 과학자인 제프리 힌튼은 최근 챗봇이 곧 인간의 뇌가 가지고 있는 정보의 수준을 추월할 수 있다고 말했습니다. 무섭지 않나요?

 

Rob
For now, chatbots can be useful for practical information, but sometimes we start to believe they are human, and we interact with them in a human-like way. This can make us believe them even more. Professor Emma Bender, speaking on the BBC’s Word of Mouth programme, explains why we meet feel like that…

 

현재, 챗봇은 실용적인 정보에 유용할 수 있지만, 때때로 우리는 그들이 인간이라고 믿기 시작하고, 인간과 같은 방식으로 그들과 상호 작용합니다. 이것은 우리가 그들을 더욱 믿게 만들 수 있습니다. BBC의 입소문 프로그램에서 말하는 엠마 벤더 교수는 우리가 왜 그렇게 느끼는지 설명합니다…

 

Emily M Bender, Professor of Computational Linguistics at the University of Washington
I think what's going on there is the kinds of answers you get depend on the questions you put in, because it's doing likely next word, likely next word,  and so if as the human interacting with the machine you start asking it questions about ‘how do you feel, you know, Chatbot?’ ‘What do you think of this?’ And. ‘what are your goals?’ You can provoke it to say things that sound like what a sentient entity would say... We are really primed to imagine a mind behind language whenever we encounter language. And so, we really have to account for that when we're making decisions about these.

 

제 생각에 어떤 대답을 할지는 여러분이 입력한 질문에 달려있습니다. 왜냐하면 그것은 아마 다음 단어, 아마도 다음 단어를 할 것이기 때문입니다. 만약 기계와 상호작용을 하는 사람이 기계에 대해 질문을 하기 시작하면, 여러분은 '당신의 기분이 어때요, 챗봇?' '이것에 대해 어떻게 생각하나요?' 그리고 '당신의 목표는 무엇인가요?' 여러분은 감각적인 존재가 말하는 것과 같은 말을 하도록 자극할 수 있습니다. 우리는 언어를 접할 때마다 언어 뒤에 숨겨진 마음을 상상할 준비가 되어있습니다. 그래서 우리는 이것에 대해 결정을 내릴 때 정말로 이 점을 고려해야 합니다.

 

Neil
So, although a chatbot might sound human, we really just ask it things to get a reaction – we provoke it – and it answers only with words it’s learned to use before, not because it has come up with a clever answer. But it does sound like a sentient entity – sentient describes a living thing that experiences feelings.

 

그래서, 비록 챗봇이 인간처럼 들릴지 모르지만, 우리는 그것에게 반응을 얻기 위해 정말로 무언가를 물어봅니다 – 우리는 그것을 자극합니다 – 그리고 그것은 그것이 영리한 답을 생각해 냈기 때문이 아니라, 그것이 전에 사용하기 위해 배운 단어들로만 대답합니다. 그러나 그것은 확실히 지각 있는 존재처럼 들립니다 – 지각 있는 존재는 감정을 경험하는 살아있는 것을 묘사합니다.

 

Rob
As Professor Bender says, we imagine that when something speaks there is a mind behind it. But sorry, Neil, they are not your friend, they are just machines!

 

벤더 교수의 말처럼, 우리는 무언가가 말할 때 그 이면에 마음이 있다고 생각합니다. 하지만 닐, 미안하지만, 그들은 당신의 친구가 아니라, 단지 기계일 뿐입니다!

 

Neil
It’s strange then that we sometimes give chatbots names. Alexa, Siri… and earlier I asked you what the name was for the first ever chatbot.

 

이상하게도 우리가 챗봇의 이름을 붙이기도 합니다. 알렉사, 시리… 그리고 아까 제가 최초의 챗봇의 이름이 무엇이냐고 물어봤었는데요.

 

Rob
And I guessed it was PARRY. Was I right?

 

그리고 저는 PARRY라고 추측했습니다. 제 말이 맞았나요?

 

Neil
You guessed wrong, I’m afraid. PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA. It was considered to be the first ‘chatterbot’ – as it was called then, and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.

 

당신은 추측을 잘못하신 것 같습니다. 패리는 1972년에 만들어진 챗봇의 초기 형태였지만, 정답은 엘리자였습니다. 그것은 그 당시 이름으로 불리던 최초의 챗봇으로 여겨졌고, 메사추세츠공과대학의 조셉 바이젠바움에 의해 개발되었습니다.

 

Rob
Fascinating stuff. OK, now let’s recap some of the vocabulary we highlighted in this programme. Starting with sophisticated which can describe technology that is advanced and complex. 흥미로운 내용이네요. 자, 이제 이 프로그램에서 강조한 어휘 몇 가지를 요약해 보겠습니다. 고급스럽고 복잡한 기술을 설명할 수 있는 정교한 것부터 시작하겠습니다.

 

흥미로운 내용이네요. 자, 이제 이 프로그램에서 강조한 어휘 몇 가지를 요약해 보겠습니다. 고급스럽고 복잡한 기술을 설명할 수 있는 정교한 것부터 시작하겠습니다.

 

Neil
Something that is coherent is clear, carefully considered and sensible.

 

일관성이 있는 것은 명확하고 신중하게 고려되고 합리적입니다.

 

Rob
Authoritative – so it is respected, accurate and important sounding.

 

권위적 – 따라서 존중되고 정확하며 중요한 소리입니다.

 

Neil
When you are on guard you must be careful and alert about something – it could be accuracy of what you see or hear, or just being aware of the dangers around you.

 

경계를 할 때는 무언가에 대해 조심하고 경계해야 합니다. 보고 듣는 것이 정확하거나 주변의 위험을 인식하는 것일 수 있습니다.

 

Rob
To provoke means to do something that causes a reaction from someone.

 

자극한다는 것은 누군가로부터 반응을 일으키는 행동을 하는 것을 의미합니다.

 

Neil
Sentient describes something that experiences feelings – so it’s something that is living. Once again, our six minutes are up. Goodbye.

 

sentient은 감정을 경험하는 어떤 것을 묘사합니다 – 그래서 그것은 살아있는 것입니다. 다시 한번, 우리의 6분이 끝났습니다. 안녕!

 

Rob
Bye for now.

 

안녕!

 

728x90