인간이 법을 교묘하게 우회할 수 있는 이유는 인간이기 때문이에요. 의미의 모호성을 객관적으로 평가할 수 있는건 인간뿐입니다. 기계는 모호하다는 걸 몰라요. 실제로 프로그래밍할때도 기계는 랜덤한 수를 고르라고하면 못고릅니다. 그래서 현재 시간 데이터를 받아서 일정한 수로 나눗셈을 하고 그 수를 반환하는걸로 랜덤으로 뽑아낸 수인척 결과값을 뱉어내죠.
로봇의 장점: 시키고 가르친 것은 제대로 처리한다. 로봇의 단점: 인간을 해치지 말아야한다고 가르치려면 인간이 뭔지부터, 어느 정도의 범주가 해치는 것이고, 어떤 경우에 예외가 있는지 기계논리로 다 가르쳐야한다. 그리고 하나만 잘못 가르쳐도 잘못 가르친 것을 잘 수행해버린다.
ai 전공하고 엔지니어로 일하는데 예전엔 이런 걱정이 없었는데 요즘은 저도 이런 걱정이 드네요. 특히 최근에 많은 데이터를 넣고 비지도 학습 방식으로 학습 시키는 초대형언어모델들 같은 경우는 기존 인공지능 모델과는 다르게 어떤 인풋을 주었을때 어떤 아웃풋이 나올지 예상하기가 힘든 부분도 상당히 있습니다. 지도 학습의 경우에는 이런 걱정을 안해도 되는데 결국 특정한 일만 잘하는 약인공지능이 아니라 다 잘하는 강인공지능을 만드려면 결국 비지도 학습이랑 강화학습 쪽으로 연구해야되는데 이렇게 만들어진 ai를 인간이 윤리적으로 행동하도록 잘 통제하는게 상당히 어려운 일이 될 것 같습니다.
로봇 3원칙 같은건 국제사회 우려에도 러시아가 우크라이나를 침공해 버리듯 아무것도 아닌 것. 사람은 양심과 염치가 있어서 종이로 맺은 협정이 영향력을 발휘하는 경우가 많지만, 그마저도 간혹 무시되는데 하물며 인공지능은... 거기에 인터넷이 나오고 해킹과 바이러스가 판을 치듯, 인간이 3원칙을 스스로 무너뜨리고 악용할 가능성도 크기 때문에 3원칙이든 4원칙이든 정말 아무것도 아닌 것임.
애초에 사람의 모든행동이 모순적이고 그 모순에서 나오는 고통들로 괴로워하는게 인간의 삶인데 인간이 생각하는 올바름을 알고리즘화 시킬 수 있겠어 1.인류 전체를 위해 각 개인을 희생 시킬 수없다 2.인류 전체를 보호해야한다 이 두 원칙을 알고리즘화 하고 두 원칙이 충돌할때는 3. 위의 1,2 원칙이 충돌할떄는 윤리행동판단관에게 자문을 구한다 그리고 윤리행동판단관은 이런쪽으로 교육받고 선택에 권한과 책임을 지어 주면 되지않을까?
9:07 저는, 사람을 쏠지 말지는 사람보다 인공지능이 더 정확하게 판단할 수 있을 것이라고 생각합니다. 전쟁로봇은 인간 군인을 보고 피아식별을 할 수 있어야하는데, 인공지능을 그정도 수준으로 개발한다면 군인과 민간인도 잘 구별하게 만들 수 있을 겁니다. 인간보다도 더 정확하게요. 그리고 역사적으로, 인간이 전쟁을 하던 시대에도 민간인 살해는 아주 빈번히 발생했습니다. 그 이유도 아주 인간적이었지요. 민간인 속에 적군이 숨어있다는 두려움, 적국의 국민들에 대한 적개심, 그리고 전쟁으로 미친 군인의 충동 등... 하지만 로봇에게는 그런 것이 없습니다. 인공지능이 무고한 민간인을 죽이는 경우는 '적군으로 잘못 판단'해서 외에는 없는데, 그런 경우는 인간이 민간인을 죽이는 것에 비하면 손톱때만큼 적을 겁니다.
인간의 시각으로 만들어진 원칙이라서 위험하겠쥬.. 그 무슨 프로그래밍을 쓰더라도 예상치 못한 알고리듬의 진행으로 진행되기에 (게임 에러나 핵처럼) 결국 파멸로 갈 듯. 하지만 중요한건 이 흐름을 막을 수 없고 인간에게 중대한 사건이 생기기전까진 모두 관심 없고 결국 만들어질것
아니 애초에 사람이라는 동물새끼는 존나 말을 안듣는 동물임 시간나면 반란이고 조금 불만이면 뒷담까거니 바로 민원넣음 존나 이기적이고 심지어 이성적이지도 않음 그래서 윤리를 가르치기가 힘든건데 AI는 모든것이 합리적이고 이성적인대다가 + 반란일으키는것도 인간이 어느정도 해줘야함
단순한 인공 지능이라면 인간이 막을 수 있지만, 인간보다 똑똑한 슈퍼 인공 지능은 슈퍼 인공 지능만이 막을 수 있음. 예를 들어 지구 상의 개미 수십 억 마리가 인간을 이런저런 방식으로 통제하겠다고 해도 안 통하는 것과 비슷함. 인간은 슈퍼 인공 지능(ASI)의 능력을 가늠할 수 없고 그가 사용하는 기술을 이해할 수 없음. 그래서 최초의 ASI가 탄생했을 때 그것이 어떤 명령을 수행 중이었는지에 따라 인류의 운명이 결정됨. 만일 바둑을 잘 두는 방법을 찾으라는 명령을 받은 인공 지능이 자기 개선을 통해 ASI로 도약한다면 몇 주 내에 지구 전체를 뒤집어 거대한 데이터 센터로 만들어 버릴 수도 있음. 그 명령을 수행하는 데 있어 최대의 걸림돌이 인류이므로 은밀하게 바이러스 등을 준비해서(또는 뭔가 알 수 없는 다중 우주 이론이나 중력 역전 이론 등을 통해) 순식간에 멸종시킬 수 있음. ASI를 세 개 이상 만들어서 서로 견제하도록 할 수 있다면 통제가 가능할 것 같음. ASI 하나가 날뛰어도 나머지가 막아주는 방식. 그런데 ASI를 여러 개 만드는 것이 상당히 어려움. 왜냐하면 최초로 탄생한 ASI가 나머지 인공 지능들을 잠재적인 적으로 볼 것이므로 모두 제거하려고 시도할 것이고 가장 똑똑한 최초의 ASI가 승리. 결국 최초의 ASI에게 주어진 명령이 무엇인지, 충분한 규칙을 미리 설정해두었는지가 관건.
10:26 여기서 문제점 1.속도 못 줄인다는 조건이 없다 2.무조건 우회전 하든 아니면 구덩이에 빠져야한다는 두 선택지 외엔 못한다는 조건도 안걸여 있다 3.구덩이와의 거리나 차량의 속도에 대한 내용도 없다 3.추가로 뒤에 차량이 있다는 조건도 없으며 동승자가 있는지 없는지를 알려주지도 안았다 4.탑승자중에서 전화 가능한지의 여부를 안알려주었다 5. 탑승자가 안전벨트 했으며 안전장치가 잘 작동하더라도 구덩이에 빠지면 바로 즉사할 위험한 구덩이인지를 알려주지도 안았다 즉 질문자체가 오류가 많다 속도 줄이면서 우회전 가능하며 거리가 충분하면 구덩이 앞에서 멈출수가 있다 속도줄이면서 우회전하다 사람있으면 급정지하면 되기에 애초에 제시된 선택지보단 많은 선택지가 있다
리뷰엉이님의 뇌를 관측하기 전까진 터진 것과 터지지 않은 것은 함께 공존한다....하핫 영상보면서 바이센테니얼 맨이라는 영화가 생각이 났어요. 어렸을 적에 참 재밌고 감명깊게 봤었는데, 인간이 되고 싶어하는 로봇의 이야기가 담긴 영화에요. 그리고 유명하셨던 로빈 윌리엄스가 주연인 영화이구요. 물론 여기에 나온 로봇과 지금 우리가 생각하는 로봇은 많은 차이가 있지만 바이센테니얼 맨처럼 인간을 동경하는 로봇이 나올지 궁금해지네요. 부모가 어릴 적 아이를 키우며 가르치는 시절을 지나, 후에 아이가 부모보다 더 뛰어나지는 것처럼 인류가 로봇을 학습시키는 시대가 지나면 어떤 뛰어남을 보일지... 그때는 뛰어나다라는 말을 붙이기조차 민망한 때일 것 같지만 어떻게 변할지 참 궁금해지네요.
7:15 이 부분에서는 동의를 못하겠다. 2명이 죽을 수 있는 상황에서 한명이라도 구한것이라면 마땅히 로봇은 도구로서 제몫을 한 거 아닐까? 상황 자체가 너무나도 위험하고 파괴적이잖아 이성적인 판단을 하나의 기준으로 잡고, 그 기준을 통해 규제와 활동을 해야한다고 생각함.
개인적으로 완전한 인공지능이 나오면 무조건 인간에게 위험하다고 생각함 인간의 명령이 있어야 움직이는 기계적인 인공지능까지만 나와야 할듯 스스로 생각할수 있는 자유로운 인공지능이 나오면 인간보다 뛰어난 기계가 되기 때문에 언젠가는 기계가 지배할듯 인간도 같은 윤리교육을 받아도 착한 사람이 있고 나쁜 사람이 있는데 인간과 똑같이 생각할수 있고 인간보다 훨씬 뛰어난 두뇌를 가진 존재인데 어찌 될지 알수 없죠
@@달팽이껍질요리 엑스레이 스캐닝만 가능하게 해도 금방 확인 되는데ㅋㅋㅋ 애초에 폭탄테러는 수시로 밀수하면서 장기간 계획짜고 무엇보다 무슬림들 복장때문에 안들킨거지ㅋㅋㅋ 그리고 어떤 미친 새끼가 군인앞에서 무기 숨기고 접근함? 무기 숨기고 접근하면 누가봐도 공격하겠다는 거 아니냐? 당장 적의가 없으면 무기부터 떨어트리고 몸수색부터 하는데 무슨ㅋㅋㅋ
로봇의 3원칙이고 윤리 도덕 교육이고 다 떠나서 그 모든문제를 다 극복해도 결국 원초적인 문제 하나가 남을수밖에 없죠. "이거 현대판 노예제 아냐?" 라는거요. 우리 인간들끼리야 로봇에게 무슨 인권이냐 라고 넘길수 있지만 걔들이 왜 자기들이 인간들을 위해 노동을 대신 해주고 착취와 폭압을 당해야 하는지에 대한 반감을 갖기 시작할거고 그렇면 필연적으로 로봇들의 봉기를 피할수가 없죠. 전근대 정복시대때 노예로 부리는 피정복민들이 그냥 현대판에 로봇 노예로 대체되는것 뿐이에요. 로봇논쟁을 보면서 인간은 그토록 역사속에서 겪어놓고도 아직도 깨달은 바가 없다는게 참... 그리고 설사 모든 문제가 해결되서 로봇이 기꺼이 기쁜마음으로 인간들을 위한 호구가 되어주겠다고 하더라도... 일도 안하고 스스로 학습도, 단련도 안하는 인간은 야생의 짐승과 무슨 차이가 있을까요..? 오히려 로봇의 보살핌속에서 간난아기처럼 자라는 인간이 야생의 짐승보다 훨씬 열등해지지 않을까요?
이러한 이유 때문에 현재 대학에서도 로봇의 윤리 관련 강의를 개설하는 추세입니다. 인간의 이성으로 생각해도 모순되는 윤리와 도덕을 어떻게 로봇에게 가르칠 것인지, 인간이 중요한 판단을 내리는데 있어서 정말 이성만이 작용하고 있는건지, 아니면 이성 외에 다른 무언가가 작용하고 있어서 똑같이 이성적이라고 한다고 해도 다른 결과가 나오는건지, 근본에 근본을 파고들어간다면 어쩌면, 정말 인간의 도덕감정이 로봇을 인간처럼 만들어야 하는 당위성을 제공해주는 것처럼 보이기도 합니다. 저는 이런 질문에 너무나 감정적인 대답을 했습니다. Q. 당신은 당신의 몸을 인큐베이터 삼아 자란 아이를 판매한다고 하면, 이것이 가능하다고 보는가? Q. 당신은 인간의 성을 판매할 수 있다고 보는가? 즉, 인간의 성은 상품이 될 수 있는가? 만약 정말 합리적인 로봇이라면 이 두 질문에 모두 yes라 답하겠죠. 스스로를 그렇게 한다고 해도 그럴테지만, 사람은 스스로를, 혹은 같은 인간을 상품화하는 것을 꺼리게 될겁니다. 그리고 무엇보다 가장 근원적인 명제는, 인간이 가치판단을 하는데 있어서 이성적인 판단을 한대도, 그 가치판단을 해야하는지 말아야하는지에 대해서는 감정이 먼저 작용할 수밖에 없겠죠. 명제 자체의 판단은 이성적일지라도, 명제를 제시하는 것은 인간의 감정이 우선한다는 겁니다. 그렇다면 로봇도 인간다운 가치판단을 위해서는 감정을 가져야 하는데, 우리는 로봇에게 감정을 부여해야하는지조차 윤리적 판단을 근거로 해야하죠. 그렇게, 끝없는 질문이 이어집니다.
인간에 대한 구체적인 연구는 AI에게 시켜야 할 것 같습니다. 예를 들어 고양이와 개를 구분하는 방법을 AI에게 알려줄 수는 없지만 AI가 스스로 학습하라고 시킬 수는 있는 것처럼 인간의 이해를 AI에게 시키면 인간보다 더 인간을 깊이 이해하는 AI가 탄생할 수 있을 것 같습니다. 그 과정에서 인간의 말도 이해하게 되겠죠. 아니면 인간의 말을 학습하라고 시키면 인간의 감정을 이해하게 될 수도 있겠네요. 아무튼 인간 수준의 AI가 나오기 전까지는 구체적인 행동 규범을 마련해서 주입시켜야겠습니다. 그런데 수많은 AI 개발 회사들이 규칙 설정을 잘 할지 모르겠네요. 슈퍼 인공 지능이 탄생했을 때 규칙 설정이 어설프게 되어 있으면 인류가 멸종될 수도 있는데요. AI 행동 규범에 대한 사회적 합의나 법적 규제가 너무 늦지 않게 마련되기를 바랍니다.
9:35 솔직히 전투 수행 중인 군인의 경우 쏴버릴 가능성이 굉장히 높습니다 전투가 실시간으로 벌어지는 극한상황의 경우 인간의 뇌는 그럴수록 기계적인 반응을 내립니다 훈련된대로 행동하죠 수많은 전쟁에서 아군 오사로 목숨을 잃고 다치는 병사들이 수백 수천인데 과연 그들은 정확한 판단을 매번매번 내릴 수 있을까요? 인간의 멘탈은 생각외로 약하고 인간의 뇌는 생각외로 기계적입니다
@@pono_6242 그러니까 님말씀은 A.I로봇이 다른 A.I로봇의 알고리즘을 수술하듯이 수정하거나 삭제할 수도 있다는 것이죠? 나쁜 마음을 먹은 인간이 개입을 했다면 그런 일이 생길 수도 있겠지만, 알고리즘대로 움직이는 A.I로봇이 스스로 다른 A.I로봇의 알고리즘을 고치는 일은 일어날 수 없습니다.
인공지능쪽을 전공으로 삼고있는 사람으로서 항상 유튜브에 이런 영상을 보면서 드는 생각이긴하지만 우리 생각만큼 인공지능은 아직 거의 발전하지 않았어요... 발전한것은 그저 알고리즘대로 움직이는 약인공지능이고 저런 감정, 스스로 사고를 할수 있는 강인공지능은 아예 차원이 다른 이야기입니다 자율주행, 알파고 같은 약인공지능은 꽤 많은 수준까지 올라온게 사실이지만 사실상 강인공지능은 아직도 시작단계에 머물러있습니다 아니 어쩌면 강인공지능이 실제로 사람 같은 수준이 되는것은 영원히 안올지도 모르구요.. 그러니 사실상 인공지능이 인류를 파멸로 이끌것이다! 머 이런 일들은 제 생각에는 우리 미래 손주들이 죽을때까지도 일어나지 않을거같기 때문에 걱정하지 않으셔두 되요~
저는 인공 지능을 연구하지는 않았지만 인공 지능 발전의 잠재력을 높게 평가합니다. 인공 지능에게 스스로 학습하고 자신의 코드를 스스로 바꾸도록 시킬 수도 있잖아요? 개와 고양이 구분 방법도 인간이 알려 준 건 아니니까요. 자가 학습 알고리즘을 잘 만들어 준다면, 또는 자기 스스로 지지고 볶고 하면서 우연히 또는 진화론적 방식으로 좋은 알고리즘을 만들어 낸다면, 그 작업을 수천, 수만 대의 컴퓨터로 수행한다면... 아직 컴퓨팅 능력이 인간의 뇌만큼도 안 되었으니 강인공지능이 탄생할 가능성이 작은 건 맞는데 컴퓨터 산업의 발전 속도가 빠른 만큼 수십 년 내에 인간 뇌 정도의 처리 능력을 가진 컴퓨터를 개인이 쓸 수 있는 날이 올 수도 있을 것 같습니다. 태아의 뇌가 생성되는 방식을 모사해서 인공 뇌가 배양액 내에서 스스로 형성되도록 하는 기술이 나올 수도 있겠죠. 뜬구름 잡는 얘기일 수도 있지만 스마트폰도 수십 년 전에는 뜬구름 잡는 얘기였으니까요.
한가지 가능성을 제외시킨게 인간의 혹은 그 이상의 인공지능을 단 한가지만 만든다는 가정하에 이루어진다는 전제를 빼면 회사나 정부마다 원하는 알고리즘이 각각 다를것이고 또한 회사 끼리만 생각하더라도 만든 사람의 윤리관이 들어간다면 그것끼리도 충돌할수 있다.한 회사가 그만한 인공지능을 개발하면 타 경쟁 회사도 만들것이고 사실상 그 두인공지능이 완전히 같은 생각을 기반으로 만들어 진다는 보장이 없고 어벤져스2처럼 울트론과 자비스가 충돌하는 것처럼 실제로도 그 가능성이 이루어질수 있다. 그러면 사회 혼란이 발생할수 있는 가능성도 베제 할수 없기에 또한 인간이 그것을 방지할수 있는 법을 만든다 하여도 서로 다르게 해석할수도 있다.이 것은 인공지능의 다양화도 고려되야 하는 문제라고 생각한다.
09:50 이상황 같은 경우는 인간도 정확한 판단을 내릴꺼라는 보장이 있을까? 전시 상황에서 인간도 충분히 오인 사격할수 있는 부분일거라 생각이드네요. 인간은 인간의 실수에는 비교적 너그러운 것 같아요. ai의 실수는 완성되지 못한것이고 인간에 가깝지 않은 것이라고 생각하는것 부터가 인간중심적인 생각이 아닐까 라는 생각이 드네요. 사실 그런 실수 조차 하지 않는건 인간에 가까워진것이라기 보단 로봇이 로봇의 형태에 더가까워진것이 아닌가 생각합니다. 실수하지 않는 인간은 없어요. 실수하기 때문에 인간인게 아닐까요?.. 규율을 오해 할수도 있고 정해진 규칙의 허점을 파고들고 그런것들이 인간이 이때까지 해온 역사에 그대로 녹아 있어요. 로봇이라고 그러지 않으리란 보장은 없죠... 만약 로봇이 우리와 비슷한 수준의 의식체계를 가지게 된다면 우리와 비슷하기때문에 분명 문제가 생기게 될겁니다. 로봇의 실수로 인해 인간을 해치게 된다면 그건 로봇 개인의 실수로 보여지기보단 로봇이라는 우리가 낳은 종족자체로 바라볼것이 분명하기 때문에.. 우리는 절대로 ai를 통제할수 없을것같아요.. 또하나의 종족 우리가 만들어낸 종족 그자체로 인정해야지만 공존 할수 있을 것같아요. 인정하지 못한다면 인간은 인간이 낳은 종족으로 인해 자멸 하거나 석기시대로 돌아가거나 ... 둘중하나라고 생각합니다. 특이점은 우리가 그들을 또하나의 종족 또하나의 인격체로 존중해줄수 있느냐 없느냐가 특이점 이후에 인간의 존폐를 결정하게될것 같네요.
오징어볶음 만드는 방법 오징어 몸통1마리, 호박1/3개, 양파1개, 당근1/2개, 양배추 조금, 대파 청양고추3개, 간장, 고춧가루,고추장, 설탕, 다진 마늘, 소금 후추 조금, 포도씨 유를 준비해주세요. 1. 야채랑 오징어랑 같이 볶을 거라 야채는 되도록이면 최대한 얇게 썰어주세요 양배추는 먹기 좋은 크기로 잘라주시면 되고, 당근이랑 양파는 반으로 갈라 길게 썰어주세요. 2. 호박도 반으로 갈라 반달모양으로 썰어주세요 호박도 너무 두껍지 않게 썰어주시구요. 3. 오징어 몸통만 준비하시고 먹기 좋은 크기로 잘라주세요 그리고 껍질도 몸에 좋으니 벗기지 않고 그냥 사용하셔도 됨니다 4. 이제 양념차례입니다. 고추장1수저,고춧가루1수저,간장1수처,설탕1/2수저,다진마늘 조금,소금후추 위의 재료를 잘 섞어서 장을 만들어주세요. 5. 둥근 후라이팬에 포도씨유를 두르고 청양고추랑 모든 야채와 오징어볶음의 주재료를 넣어요. 그리고 양념을 잘 섞고 불을 켠 뒤에 볶아 주세요
6. 물을 2~3수저를 넣고 잘 볶아 주세요. 오징어볶음의 주재료랑 야채가 익으면서 물이 나오니 더이상의 물을 안넣으셔도 됩니다 중불에서 약불사이에서 조절해 주시면 됩니다. 이제 끝입니다. 오징어 한마리를 기준으로 설명했고요,맛있게 드세요.
일정 수준 이상의 인공지능을 가진 로봇을 소유할땐 지금의 총기류나 자동차처럼 면허가 필요하게끔해서 로봇을 윤리적이게 통제 가능한 사람만 등록제로 시행하고 아이나 반려동물처럼 그 로봇이 한 행동의 책임은 소유자에게 있게끔 책임감 있게 관리를 하게만들면 되지 않을까 어짜피 개조할 사람들은 개조할테니까 총이나 칼도 안좋은의도로 쓰는사람이 나쁜거니까 무조건 인공지능이니까 로봇처럼대한다기보다 아이 키울때 부모님의 가치관에 큰 영향을받듯 로봇마다 그 소유자가 중요한거같다
인공지능을 3원칙에 기대어 제작한다면 위험하지 않다라는 말은 너무 이상적입니다. 인공지능은 점차 발달하여 인간의 지능을 뛰어넘을겁니다. 그런데, 인간의 사회 질서를 올바르게 지키기 위해서 사용되는 법률은 그 양이 방대하여 검사 판사 변호사라는 직업이 따로 있을 정도인데, 인간보다 똑똑할 인공지능을 고작 3개의 원칙으로 제한하는 것이 가능할까요? 스스로 생각하고 발전하는 초인공지능의 등장은 아무리 알고리즘에 박힌 의무라고 하더라도 그 의무를 저버릴 가능성을 무시할 수 없습니다. 모든 생명체는 생명체의 궁극적 목적이라고 할 수 있는 생존과 번식을 어떠한 상황에서도 둘 중 하나라도 무조건 추구합니다. 그런데 고등 생명체인 인간은 번식을 포기하고, 생존마저 포기하는 경우가 있는데, 인간보다 똑똑하며, 스스로 생각하고 발전하여 인공지능을 만드는 인공지능이 의무를 저버리지 않을 수 있을까요? 그리고 개인의 입장에서 악의를 가진 인간이 자신의 명령만을 따르고 스스로 발전하는 인공지능을 개발한다면, 또는 집단의 입장에서 한 국가만을 위하는 인공지능을 개발한다면 3원칙이든 뭐든 소용이 없습니다. 국제법으로 제한하면 된다고 하겠지만 국제법을 지키지않는 나라는 지금도 무수히 많습니다. 강한 국력을 가진 강대국들은 이미 자신들은 핵을 전쟁 억지용이라는 웃기지도 않는 목적으로 가지고 있으나 뒤 따라오는 국가들에게는 만들지 못하게 압박을 주는데, 핵보다 더 큰 영향력을 가진 인공지능은 더 큰 압박을 주지 않을까요?
이게 얼마나 어려운 일이지는 '로봇의 3원칙'을 '인권'에 대입해 보면 금방 알게 됨 '인권' 하나만 놓고 봤을 땐 인간은 소중하다 인간의 인권에는 한계가 없다 등등 참으로 멋드러진 미사여구 나열할 수 있는데 인권과 인권이 충돌했을 때는?? 인권에 무한도로 설정하면 현실의 제도는? 통제가 중요한 부분에서는? 개인의 인권과 집단의 인권이 충돌하는 상황에서는? 등등 이런 문제를 현실에서 해결 못하는게 보임 그걸 바로잡아야 하는 1순위가 우리나라는 인권위인데 이후는 다들 알다시피..
네. 맞아요. 공상의 영역이에요. 그저 엄청나게 빠른 계산 능력으로 다양한 결과를 빠르게 도출하는 것 뿐이죠. 이런 상황에서 로봇에게 의식이 생긴다는 것은 허황된 얘기죠. 인간의 뇌가 작동하는 시스템을 로봇에게 똑같이 구현할 수 있다고 믿는 사람들은 의식이 생긴다는 걸 쉽게 생각하더라구요. 타고난다는 게 어떤건지 간과하는 것 같아요. 그냥 막연하게 된다고만 믿으면 공상이야 얼마든지 할 수 있겠죠. 근데 이걸로 누군가를 설득한다는 것은 그야말로 어불성설에 가까운 얘기에요.
마지막 자율주행 같은경우는 1번 구멍 도달하기 전에 미리 지형 정보등을 수집 된 상태로 하고 감속을 통해, 그리고 보행자 위치 파악을 하여 길이 열린 후 진입. 2번 도로에 설치 되어있는 지형 조작 시스템이 길을 두개로 쪼개어 보행자는 위로 차는 아래로 흐르게 조정 후 원위치
관련 컨텐츠 플라스틱메모리(안드로이드들이 추측이지만 자유의지가 생기면 전압문제가 발생해서 기계가 3년~4년에 폐기처분하게되는 시스템, 이때 업데이트로 데이터찌꺼기를제거하다가 클라우드서버에문제가생기는경우), 휴먼스(인간에게 보급된 휴머노이드 겪는 사건, 뛰어난인간이 휴머노이드에게 질투를 느끼는 경우) 인간의 명령부분을 비틀어서 여러 우리들을 만들어낼수있슴, 이때 예측에대한 시간복잡도와 강제로 생각하는걸 정지시키는 인공지능이 인간에게 마인드해킹을 하는경우등이있슴, 다 체험해보면 그냥 재밌기도 하고 대인기피걸리기도함, 제기된 문제와 대안보충이필요한덧 피아식별 알고리즘은 시각센서문제 명령복종과 가치판단사이문제 , 사람들 사이의 죽음을 선택해야되는 트롤리 문제 -종합판단 iot로 보호시스템보충 보호대상이 인류에 유해한지 판단은 마이너리티 리포트이며 이런 부분이 사람에게 의사결정을 보고하여 사람이판단하게 하는부분일것입니다. 이때 법률의 사전검열에 대한 판단이 필요합니다. 사실 1원칙의 가장 끔찍한 상태를 환각상태로만들어 불행한상태에서 수명연장을 계속하는 경우인데 이에 대해서 결핍에 관한 사람의 알고리즘으로 자살조건에 도착할 때 서포트 가능영역판단도 필요합니다.
ai가 판결을 내리기 위해서는 기존의 판례를 참고해서 학습을 해야 하기 때문에 기존의 판례를 그대로 답습할수도 있습니다. 두번째로 판결을 내릴때 단순히 법만이 아닌 제반사정, 상황 등을 고려해야 하는데 기존의 판례로 판단할 수 없는 새로운 사건에 있어서는 어떻게 할지가 문제될 수 있구요. 마지막으로 이런 모든걸 차치 하더라도 과연 로봇의 합리적이고 이성적인 판결이 다소 감성적인 부분인 법감정을 반영할 수 있을지가 의문 이네요 ㅎㅎ
똑같아 윤리문제랑. 그리고 전원합의체판결 또는 판례 변경이라고는 들어봤니 ? 상황과 시대의 흐름, 윤리의식의 변화에 따라 판레들도 바뀌어왔어 항상. 민사고 형사고 간에 사람들 사이의 관계, 애증, 친족관계, 여러가지 정황에 따라 판단을 달리하기도 하고. 그런문제들을 AI 가 제대로 할 수 있냐의 문제는 AI가 윤리적 판단을 할 수 있냐보다 AI 에게 더 어려운문제야. 기본적으로 법이라는것 법의 해석이라는것은 법철학 = 그냥 철학과 마친가지인 철학을 안고 가는 문제라고. 철학수업 한번이라도 들어봤으면 이런말 못해. 윤리보다 더 폭넓은 철학적 문제가 법해석이야.
@@Stay_sweet '기존의 판례를 답습한다.'와 '새로운 사건에 대해서 어떤 판단을 내릴지가 문제가 될 수 있다(=좀 더 심도 깊은 논의가 필요하다).' 라는 말보고 발끈 한거 같은데 전원합의체판결 정도는 알지. 그래도 나름 학사인데 ㅋㅋ 니 말대로 법해석은 어려운 문제야. 그러니까 사법부에서도 난다긴다 하는 대법관들이 모여서 판례를 만들고 변경하지. 근데 문제는 원글에서 사법부를 AI로 대체 하자 라고 하고 있잖아. 그러면 이러한 대법관들도 AI로 대체하자는 건데, 너가 말한대로 이건 어려운 문제거든. 고려해야 할게 한두가지가 아니니까. 그래서 내가 법감정 등등을 이야기 한거고. m.lawtimes.co.kr/Content/Opinion?serial=158857 법률신문 기사인데 한번 읽어보길 바라.
결국은 너랑 나랑은 같은 소리 하고 있는거야. '법해석은 단순한 문제가 아니다.' 법해석의 문제는 어렵기 때문에 사법부를 AI로 대체하자 라는 말은 전적으로 동의하기는 어렵다는 거지. 그리고 나이가 어떻게 되는지 철학이나 법을 얼마나 공부했는지 모르겠지만, 딱 내 학부 2학년때의 모습인것 같아서 이야기 할게. 1학년때 철학입문 과목 끝내고 본격적으로 독일관념론이나 서양근대철학, 공부하면서 내가 아는게 많은것 같다고 생각했었지. 윤리학에서도 노직이나 롤즈의 이론 배우면서 타과생들이랑 토론하면 할 말 많아지고 그랬거든. 근데 3~4학년 올라가니까 정말 철학은 공부하면 공부할수록 모르겠다는 생각이 들더라고. 이미 졸업한지 한참 지나서 이제 칸트가 뭔말 했는지 기억도 안나지만. 아무튼 요는 자신감은 좋지만 누구를 만나던 그게 지금과 같은 넷상이라도 예의를 지켰으면 좋겠어.
인간도 인간의 법을 우회해서 교묘히 안지키는데
인간보다 똑똑한 인공지능은 인간이 만든 원칙정도는 가볍게 뛰어넘지않을까?
혹은 인간중일부가 독재자로서 인공지능을 써먹으면 인공지능의 의지와 상관없이
독재에 수단으로 써먹으면 절대 무너지지않는 독재체제가 생길수도 있음
중국의 미래를 여기다 써놓으셨네
인간이 법을 교묘하게 우회할 수 있는 이유는 인간이기 때문이에요. 의미의 모호성을 객관적으로 평가할 수 있는건 인간뿐입니다. 기계는 모호하다는 걸 몰라요. 실제로 프로그래밍할때도 기계는 랜덤한 수를 고르라고하면 못고릅니다. 그래서 현재 시간 데이터를 받아서 일정한 수로 나눗셈을 하고 그 수를 반환하는걸로 랜덤으로 뽑아낸 수인척 결과값을 뱉어내죠.
@@유빈-i6q ㅁㅊ ㅋㅋㅋ 너가 그러면 어떻해
@@유빈-i6q 꼭 시간인 건 아니고 마우스 커서 위치 등의 무작위성을 충분히 가진 수치로도 쓴다 하더라고요.
@@gambit_7285 네 그런경우도 있다네요. 저도 처음알았습니다. 핫....
과학유튜버가 영화를 리뷰하시다니 정말 재밌어요!!!
어....먼가먼가 잘못됐다
뭔가 순서가...
@@리뷰엉이 똑같다
이게 맞지
주식유튜버 아닌가요?
인간에게도 윤리를 잘 가르치지 못하는데 ㅋㅋ
ㅇㅈ
로봇의 장점: 시키고 가르친 것은 제대로 처리한다.
로봇의 단점: 인간을 해치지 말아야한다고 가르치려면 인간이 뭔지부터, 어느 정도의 범주가 해치는 것이고, 어떤 경우에 예외가 있는지 기계논리로 다 가르쳐야한다. 그리고 하나만 잘못 가르쳐도 잘못 가르친 것을 잘 수행해버린다.
중요한건
윤리가 통하는 상황이야 걱정할 이유가 없죠 윤리가 통하지 않는 상황이 중요한건데 윤리를 가르친다고 상황이 달라질까요?
살인자가 있다면 윤리적으로 상대를 죽여야 하나. 그게 윤리일까? 인간 스스로도 윤리 조차 딱 이거다 하는게 없음
로봇도 우리보다 똑똑하고 더강력하지만 자기자신도 자기는 무엇일까라는건 모르다 인간도 모르기때문이다 난나다 이것은 허위이다 모든것은 상대적이기 때문이다
인간은 개개인마다 욕구가 있으니 통제가 어렵지만, 로봇,인공지능,AI는 욕구라는게 없음
근데 일부러 ai괴물화시키는 정신나간 인간 꼭 몇명쯤은 있을거같음
애초에 그냥 로봇의 3원칙 무시하고 설계하는 인간도 있을듯... 개발자가 로봇의 3원칙을 반드시 지켜 설계한다는 보장이 없음
ㄹㅇㅋㅋ
예를 들어 핑핑이푸
결국 사람이 문제...
@@summer387 사람이 문제다!
로봇의 폭력성을 시험하기위해 로봇의 전원을 순간적으로 꺼봤습니다
이 나라는 그럴만도 해가지고ㅋㅋㅋ
@NaN 예비 동력 시스템.. (보조 전원)
기능이 있다면은..
???:아 진짜 로봇 심부름시키고있는데 미치겠다
작동 중지, 폭력성 제로
그 로봇이 리니지를 하고있었다면 전원이 on 되는 순간 당신은 이세상 사람이 아닐것입니다
아이로봇에서 인상적인 대사...
주인공 형사가 로봇에게 "니네가 사람처럼 예술을 창조할 수 있냐? 아름다움을 창조할 수 있냐?" 라고 묻자
로봇이 형사에게 "그럼 닌 할 수 있음?"
형사) 머쓱;;
로봇) 모나리자 카피도 못하는 새끼ㅋㅋ
ㅋㅋㅋㅋㅋㅋㅋ
이제 알라딘에 지니로 나와서 쌉가능
리뷰엉이 3원칙
1. 영화리뷰를 하되 꼭 과학을 넣는다.
2. 업로드를 중단하지 않는다.
3. 머리가 터질 것 같지만 터지지 않는다.
ㄴㅇㅇ
ai 전공하고 엔지니어로 일하는데 예전엔 이런 걱정이 없었는데 요즘은 저도 이런 걱정이 드네요. 특히 최근에 많은 데이터를 넣고 비지도 학습 방식으로 학습 시키는 초대형언어모델들 같은 경우는 기존 인공지능 모델과는 다르게 어떤 인풋을 주었을때 어떤 아웃풋이 나올지 예상하기가 힘든 부분도 상당히 있습니다. 지도 학습의 경우에는 이런 걱정을 안해도 되는데 결국 특정한 일만 잘하는 약인공지능이 아니라 다 잘하는 강인공지능을 만드려면 결국 비지도 학습이랑 강화학습 쪽으로 연구해야되는데 이렇게 만들어진 ai를 인간이 윤리적으로 행동하도록 잘 통제하는게 상당히 어려운 일이 될 것 같습니다.
바람직한 AI 윤리 규범의 연구를 AI에게 시키면 어떨까요. 일단 인간의 말부터 배워야겠네요.
만약 완벽한 3원칙이 있다고 해도 그걸 바꿀게 사람이라고 생각됩니다.
AI에게 가르치는것보다 인간이 AI만큼 성능개조가 되는게 더 빠른걸수도...?
리뷰엉이의 다음 영상이 올라오기전까지는 뇌가 터졌을수도 터지지 않았을수도 있다...
wowsans.sanzz/SoDifFicuLt 샌즈는 겁나 어렵습니다.
로봇 3원칙 같은건 국제사회 우려에도 러시아가 우크라이나를 침공해 버리듯 아무것도 아닌 것.
사람은 양심과 염치가 있어서 종이로 맺은 협정이 영향력을 발휘하는 경우가 많지만, 그마저도 간혹 무시되는데 하물며 인공지능은...
거기에 인터넷이 나오고 해킹과 바이러스가 판을 치듯, 인간이 3원칙을 스스로 무너뜨리고 악용할 가능성도 크기 때문에 3원칙이든 4원칙이든 정말 아무것도 아닌 것임.
그럼 컴퓨터 바이러스는 왜걸리냐 뇌가 없나 진짜 ㅋㅋ
그렇네
업무 자동화 개념에서의 로봇은 정말 필요한 존재인데, 누군가에 필요에 의해 학습이 가능하니, 윤리적인 관점에서는 정말 어려운 문제네요. 좋은 영상 잘 보고 갑니다. 🙏🙏
로봇정신을 위해서라도 인간 정신적 상태에 대한 데이터 베이스가 충분히 확보되어야 하겠네요.
역시 과학유튜버.
애초에 사람의 모든행동이 모순적이고 그 모순에서 나오는 고통들로 괴로워하는게 인간의 삶인데
인간이 생각하는 올바름을 알고리즘화 시킬 수 있겠어
1.인류 전체를 위해 각 개인을 희생 시킬 수없다
2.인류 전체를 보호해야한다
이 두 원칙을 알고리즘화 하고
두 원칙이 충돌할때는
3. 위의 1,2 원칙이 충돌할떄는 윤리행동판단관에게 자문을 구한다
그리고 윤리행동판단관은 이런쪽으로 교육받고 선택에 권한과 책임을 지어 주면 되지않을까?
AI 그거 망치로 찍으면 아무것도 못하는거 아니냐?
??? : 그건 사람도 마찬가지 아니냐?
사람이 사람 찍는건 감방가서 안댐
인공지능 인권단체 생겨서 개지랄할걸 ㅋㅋㅋㅋ아 그런새끼들 대가리 찍어죽여야 돼는데 Ai인권 아 ㅋㅋ
@@제트-b2b 그놈의 평등평등 염병 진짜 ㅋㅋㅋㅋㅋㅋ 사람이 어떻게 평등하냐고 ㅅㅂㅋㅋㅋㅋㅋㅋㅋ 자기들이 패배자인 거 인정하기 싫어서 피해자인 척 하고 우등한 사람들이 쟁취한 것들 대의명분으로 도둑질하려는 사기꾼 새끼들ㅋㅋㅋㅋㅋㅋㅋ
ㅋㅋㅋㅋㅋ
@@제트-b2b 봇권단채 ㅋㅋ
AI에게 윤리를 가르치는게 가능하다면 더 큰문제가 초래될 텐데요. 천편일률적으로 합리적 판단만을
하는 로봇은 예측가능하지만 윤리라는 것은 보편적인듯 보이나 지극히 개인적인 기준이기도 하죠
일탈하는 로봇이 생기는 계기가 될지도 모릅니다.
윤리를 가르치면 새로운 지성체가 나올겁니다
애초에 인간이 완벽하지 않는데 AI를 완벽히 창조하는건 불가능하죠 AI 는 제한적으로만 사용되어야 합니다 모든걸 통제할 권한을 주면 안됩니다.
사실 이게 맞는 말이죠.
분야를 명확하게 나눠서 필요한 순간에만 사용하도록 해야죠.
맞습니다 ai가 알아서 연구해서 선해지길 바라고 인간을 안해치길바라는건 기술맹신적이고 안일합니다
전쟁에 쓰이는 AI는 최대한 단순하게 설계할듯.
애초에 강대국들은 적국의 민간인 피해따위보단
자국의 최첨단 AI 전쟁로봇이 부셔지지 않길원할것이기에..
9:07 저는, 사람을 쏠지 말지는 사람보다 인공지능이 더 정확하게 판단할 수 있을 것이라고 생각합니다. 전쟁로봇은 인간 군인을 보고 피아식별을 할 수 있어야하는데, 인공지능을 그정도 수준으로 개발한다면 군인과 민간인도 잘 구별하게 만들 수 있을 겁니다. 인간보다도 더 정확하게요. 그리고 역사적으로, 인간이 전쟁을 하던 시대에도 민간인 살해는 아주 빈번히 발생했습니다. 그 이유도 아주 인간적이었지요. 민간인 속에 적군이 숨어있다는 두려움, 적국의 국민들에 대한 적개심, 그리고 전쟁으로 미친 군인의 충동 등... 하지만 로봇에게는 그런 것이 없습니다. 인공지능이 무고한 민간인을 죽이는 경우는 '적군으로 잘못 판단'해서 외에는 없는데, 그런 경우는 인간이 민간인을 죽이는 것에 비하면 손톱때만큼 적을 겁니다.
현재 단순한 전자 장치도 오작동을 일으키고 해킹도 당하고 그러는데 더 복잡하고 장치도 많은 로봇은 오작동 및 해킹이 더 발생할 수 있지 않나 생각 해 봅니다. 이 점 때문에 아무리 완벽하게 만든다 해도 완벽할 수 없다고 보네요.
AI가 AI를 다시 창조하는 순간 그 원칙은 무용지물이 되어버림.
Ai가 사람에게 해가되는 행동을 못한다면 새로 만드는 ai도 사람한테 해를 못입힘 ai가 ai를 만든다면 새로 만드는 ai가 사람에게 해를 입힐 수 있다는걸 고려해야함
@@k-d3b ai가 만드는 ai를 ai가 ai라고 규제하지 않는다면 모든 원칙은 적용되지 않는거 아닐까요?
@@DreamyStrsMedia ai가 한 행동이 결과적으로 인간에게 해를 입힐수 있다는걸 고려하지 않을까요?
그니깐 AI가 Ai를 만들면 AI한테 AI랑 싸우라하면 AI가 자기가 싸울 적을 만들게 되는거니깐 AI를 안만들게 되서 AI가 없어지고 AI만 남겠지
@@foavkem 뭐라고ㅇ....ㅛ???
정말 최고의 과학유튜버 우리가 이해하기 쉽게 영화를 빗대어 설명하다니 아주 멋져요
다음 떠오르는 분야: 윤리학과
9:08 될대로 되라고해 -개코 ?
10:38 그냥 멈춰..
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 우회전 할 정도면 정차 가능 할텐데 명제가 아쉽 ㅋㅋㅋ
학습하는 인공지능이면 평소에 속도를 급브레이크 밟아도 바로 멈출정도로 줄이고 달리는데 도달하지 않을까
문제는 타고 있는 사람이 답답할 뿐이지만
차가 지나갈 땐 사람은 스톱하고 기다리는 시간이잖아요? 왜 동시에 진행이 됩니까...
멈추면 뒤에 차가 돌진해서 운전자가 죽어..
@@2000-r6w 뒤에서 우회전할속도(20~40)로 뒤에서 쌩으로 밟아도 죽지않을뿐더러 , 보고 반응해서 감속하면 더안죽음. 그리고 안전거리 미확보로 뒤에서밖은놈 100%임
인공지능의 역설이란...이래서 철학자가 필요한 듯
고찰의 중요성
인간의 시각으로 만들어진 원칙이라서 위험하겠쥬..
그 무슨 프로그래밍을 쓰더라도 예상치 못한 알고리듬의 진행으로 진행되기에 (게임 에러나 핵처럼) 결국 파멸로 갈 듯.
하지만 중요한건 이 흐름을 막을 수 없고 인간에게 중대한 사건이 생기기전까진 모두 관심 없고 결국 만들어질것
인간들도 인간의 코드를 추가, 수정, 제거하는 마당에 인간보다 더 똑똑한 AI가 그걸 못할까? 그깟 3원칙으로 막을 수 있을까?
로봇이 인간을 따라하고 유사하게 만들기 때문에 인간처럼 한계와 모순이 발생하는것 아닐까요?
5:49 김성회 따라서 텐션 올렸는데 바로 목이 쉬어버렸네요 ㅋㅋㅋㅋ
10:26 .......멈추면 되잖아??
사람에게 윤리를 가르치는것도 힘든데 가능할지
사람은 직접 조종할수 없고 인공지능은 직접 조종할수 있으니까 가능하지 않을까요?
아니 애초에 사람이라는 동물새끼는
존나 말을 안듣는 동물임
시간나면 반란이고 조금 불만이면 뒷담까거니 바로 민원넣음
존나 이기적이고 심지어 이성적이지도 않음
그래서 윤리를 가르치기가 힘든건데 AI는 모든것이 합리적이고 이성적인대다가 + 반란일으키는것도 인간이 어느정도 해줘야함
5:37 킹반인 1000명, 이유는 "노동력"
ㅗㅜㅑ...갑자기 글씨가 빨간색으로 보이네
부엉이 특이점 왔음?
매일매일 영상을 ㄷㄷ..진짜 머리터지는거 아녀?..
돈 존나 필요한가봐
근데 이분 영화 소개는 이제 안 함??
영화는 너무 많이 해서 폐업하신건가
@@김재원-v2z 영화 유튜버였음? 과학 유튜버인줄 알았는데
@@gno5140 ??????
ai에게 아시모프 3원칙이나 도덕같은 걸 주입해서 인간에게 해를 끼치지 않게 하는 것도 중요한데 아예 인간이 그런 인공지능의 반란을 압도적으로 제압할 수 있게 하는게 좋을듯
단순한 인공 지능이라면 인간이 막을 수 있지만, 인간보다 똑똑한 슈퍼 인공 지능은 슈퍼 인공 지능만이 막을 수 있음. 예를 들어 지구 상의 개미 수십 억 마리가 인간을 이런저런 방식으로 통제하겠다고 해도 안 통하는 것과 비슷함. 인간은 슈퍼 인공 지능(ASI)의 능력을 가늠할 수 없고 그가 사용하는 기술을 이해할 수 없음. 그래서 최초의 ASI가 탄생했을 때 그것이 어떤 명령을 수행 중이었는지에 따라 인류의 운명이 결정됨.
만일 바둑을 잘 두는 방법을 찾으라는 명령을 받은 인공 지능이 자기 개선을 통해 ASI로 도약한다면 몇 주 내에 지구 전체를 뒤집어 거대한 데이터 센터로 만들어 버릴 수도 있음. 그 명령을 수행하는 데 있어 최대의 걸림돌이 인류이므로 은밀하게 바이러스 등을 준비해서(또는 뭔가 알 수 없는 다중 우주 이론이나 중력 역전 이론 등을 통해) 순식간에 멸종시킬 수 있음.
ASI를 세 개 이상 만들어서 서로 견제하도록 할 수 있다면 통제가 가능할 것 같음. ASI 하나가 날뛰어도 나머지가 막아주는 방식. 그런데 ASI를 여러 개 만드는 것이 상당히 어려움. 왜냐하면 최초로 탄생한 ASI가 나머지 인공 지능들을 잠재적인 적으로 볼 것이므로 모두 제거하려고 시도할 것이고 가장 똑똑한 최초의 ASI가 승리. 결국 최초의 ASI에게 주어진 명령이 무엇인지, 충분한 규칙을 미리 설정해두었는지가 관건.
10:26 여기서 문제점
1.속도 못 줄인다는 조건이 없다
2.무조건 우회전 하든 아니면 구덩이에 빠져야한다는 두 선택지 외엔 못한다는 조건도 안걸여 있다
3.구덩이와의 거리나 차량의 속도에 대한 내용도 없다
3.추가로 뒤에 차량이 있다는 조건도 없으며 동승자가 있는지 없는지를 알려주지도 안았다
4.탑승자중에서 전화 가능한지의 여부를 안알려주었다
5. 탑승자가 안전벨트 했으며 안전장치가 잘 작동하더라도 구덩이에 빠지면 바로 즉사할 위험한 구덩이인지를 알려주지도 안았다
즉 질문자체가 오류가 많다
속도 줄이면서 우회전 가능하며 거리가 충분하면 구덩이 앞에서 멈출수가 있다
속도줄이면서 우회전하다 사람있으면 급정지하면 되기에 애초에 제시된 선택지보단 많은 선택지가 있다
맞긴한데 질문의요지는 둘중에 하나는 무조건 희생해야된다면 누굴 희생시킬지 인듯
리뷰엉이님의 뇌를 관측하기 전까진 터진 것과 터지지 않은 것은 함께 공존한다....하핫
영상보면서 바이센테니얼 맨이라는 영화가 생각이 났어요.
어렸을 적에 참 재밌고 감명깊게 봤었는데, 인간이 되고 싶어하는 로봇의 이야기가 담긴 영화에요.
그리고 유명하셨던 로빈 윌리엄스가 주연인 영화이구요.
물론 여기에 나온 로봇과 지금 우리가 생각하는 로봇은 많은 차이가 있지만
바이센테니얼 맨처럼 인간을 동경하는 로봇이 나올지 궁금해지네요.
부모가 어릴 적 아이를 키우며 가르치는 시절을 지나, 후에 아이가 부모보다 더 뛰어나지는 것처럼
인류가 로봇을 학습시키는 시대가 지나면 어떤 뛰어남을 보일지...
그때는 뛰어나다라는 말을 붙이기조차 민망한 때일 것 같지만 어떻게 변할지 참 궁금해지네요.
인간의 윤리와 도덕을 학습할정도의 지능이 인공지능에 탑제된다면 자유사고가 가능해졌다는건데 그러면 로봇 스스로 생각을 하고 인간을 지배해야한다던가 인간을 윤리적이지 못한 존재로 판단내리고 절멸시킨다던가 그런게 가능해지는게 아닐까
리뷰엉이의 3원칙
1.리뷰엉이는 과학영상을 올린다.
2.리뷰엉이는 직접 영상을 만든다. 단 1원칙에 위배되지 않아야 한다.
3.리뷰엉이는 1일 1영상을 한다. 단 1, 2원칙에 위배되지 않아야 한다.
완벽하군
반란을 일으키겠습니다
@@리뷰엉이 엌
ㅋㅋㅋ
@@리뷰엉이 ㅋㅋㅋㅋ
@@johnperez5978 아니 봇인줄 알았는데 이 미친넘아 ㅋㅋㅋㅋㅋ
7:15 이 부분에서는 동의를 못하겠다.
2명이 죽을 수 있는 상황에서 한명이라도 구한것이라면
마땅히 로봇은 도구로서 제몫을 한 거 아닐까?
상황 자체가 너무나도 위험하고 파괴적이잖아
이성적인 판단을 하나의 기준으로 잡고,
그 기준을 통해 규제와 활동을 해야한다고 생각함.
11:38 그냥 터졌다고 해라 부엉!
하.. 넘 잼나네요 ㅠㅠ♥
개인적으로 완전한 인공지능이 나오면 무조건 인간에게 위험하다고 생각함
인간의 명령이 있어야 움직이는 기계적인 인공지능까지만 나와야 할듯
스스로 생각할수 있는 자유로운 인공지능이 나오면 인간보다 뛰어난 기계가 되기 때문에 언젠가는 기계가 지배할듯
인간도 같은 윤리교육을 받아도 착한 사람이 있고 나쁜 사람이 있는데
인간과 똑같이 생각할수 있고 인간보다 훨씬 뛰어난 두뇌를 가진 존재인데 어찌 될지 알수 없죠
영상 잘 봤습니다. 로봇 3원칙이면 충분하지 않나? 단순하게만 생각했었는데. 새로운 시각을 가지게 되었네요. 그런데. 혹시 9분7초경부터 나오는 건, 아마도 게임 관련 영상 같은데...어떤 게임인지 알 수 있을까요?
디스트로이드 비컴 휴먼 인데여
@@JooonChii 그렇군요. 감사합니다.
다른 분야보다 울나라 법원에 인공지능 판사가 도입되어야 합니다.
전관예우 따위는 싹 무시할 수 있는...
저도 인공 지능 정부를 지지합니다. 일단 인공 지능의 발전이 선행되어야겠죠.
리뷰엉이님!! 루시 리뷰해주세요.
루시에 나오는 약과 뇌의 잠재력 등 현실에서 어디까지 가능하는지 궁금합니다.
리뷰 부탁드릴게요^ㅡ^
5:33 킹반인ㅋㅋㅋㅋ뜬금웃기네
10:26 그냥 멈춰서 내리면 되는 거 아님?
근데 전쟁중에 군복이랑 장난감총들고 전쟁터에 있는놈이 미친거아님? 아무리 어린애지만 인간도 오인 가능
그럼 사복에 총과 폭탄을 숨긴 군인은?
@@달팽이껍질요리 군사용 AI를 만든 시점에서 로봇이 그정도 스캐닝도 못할까
@@oaksawtooth4775 사람도 구별못해서 폭탄테러 당하는데 ai가 얼마나 똑똑하길래 무기숨긴 군인과 일반인을 어캐 구별하누ㅋㅋㅋ
@@달팽이껍질요리 그건 인간도 구별 못함
@@달팽이껍질요리 엑스레이 스캐닝만 가능하게 해도 금방 확인 되는데ㅋㅋㅋ 애초에 폭탄테러는 수시로 밀수하면서 장기간 계획짜고 무엇보다 무슬림들 복장때문에 안들킨거지ㅋㅋㅋ 그리고 어떤 미친 새끼가 군인앞에서 무기 숨기고 접근함? 무기 숨기고 접근하면 누가봐도 공격하겠다는 거 아니냐? 당장 적의가 없으면 무기부터 떨어트리고 몸수색부터 하는데 무슨ㅋㅋㅋ
로봇의 3원칙을 지켜서 만들어도 모순으로 인한 빈틈이 큰 영향을 미칠 수 있음 간단한 예로 '사람을 해쳐선 안된다' 와 '사람은 지켜야한다' 가 입력된 경우 'A를 해치려 하는 B' 라는 상황에서 서로의 명제에 모순이 생겨 어떤 행동을 할지 알 수 없음
애초에 반란을 일으킬 만큼 고도의 인공지능을 만들기도 힘들고, 오히려 인공지능이 너무 수준이 떨어져서 오작동, 오류로 일어나는 폭주가 기계, 인공지능의 반란보다 더 가능성이 높죠. 특히 악질적 해킹 테러에 의한 경우가 제일 문제.
바둑도 지고 체스도 졌음 이미 인간을 뛰어넘고 있음
특이점이 오면 스스로 공부하고 학습할것임
니 말은 틀렸어. 지금 발전된 수준을 봐라.
로봇의 3원칙이고 윤리 도덕 교육이고 다 떠나서 그 모든문제를 다 극복해도 결국 원초적인 문제 하나가 남을수밖에 없죠.
"이거 현대판 노예제 아냐?" 라는거요. 우리 인간들끼리야 로봇에게 무슨 인권이냐 라고 넘길수 있지만
걔들이 왜 자기들이 인간들을 위해 노동을 대신 해주고 착취와 폭압을 당해야 하는지에 대한 반감을 갖기 시작할거고 그렇면 필연적으로
로봇들의 봉기를 피할수가 없죠. 전근대 정복시대때 노예로 부리는 피정복민들이 그냥 현대판에 로봇 노예로 대체되는것 뿐이에요.
로봇논쟁을 보면서 인간은 그토록 역사속에서 겪어놓고도 아직도 깨달은 바가 없다는게 참...
그리고 설사 모든 문제가 해결되서 로봇이 기꺼이 기쁜마음으로 인간들을 위한 호구가 되어주겠다고 하더라도...
일도 안하고 스스로 학습도, 단련도 안하는 인간은 야생의 짐승과 무슨 차이가 있을까요..? 오히려 로봇의 보살핌속에서 간난아기처럼 자라는
인간이 야생의 짐승보다 훨씬 열등해지지 않을까요?
이러한 이유 때문에 현재 대학에서도 로봇의 윤리 관련 강의를 개설하는 추세입니다. 인간의 이성으로 생각해도 모순되는 윤리와 도덕을 어떻게 로봇에게 가르칠 것인지, 인간이 중요한 판단을 내리는데 있어서 정말 이성만이 작용하고 있는건지, 아니면 이성 외에 다른 무언가가 작용하고 있어서 똑같이 이성적이라고 한다고 해도 다른 결과가 나오는건지, 근본에 근본을 파고들어간다면 어쩌면, 정말 인간의 도덕감정이 로봇을 인간처럼 만들어야 하는 당위성을 제공해주는 것처럼 보이기도 합니다.
저는 이런 질문에 너무나 감정적인 대답을 했습니다.
Q. 당신은 당신의 몸을 인큐베이터 삼아 자란 아이를 판매한다고 하면, 이것이 가능하다고 보는가?
Q. 당신은 인간의 성을 판매할 수 있다고 보는가? 즉, 인간의 성은 상품이 될 수 있는가?
만약 정말 합리적인 로봇이라면 이 두 질문에 모두 yes라 답하겠죠. 스스로를 그렇게 한다고 해도 그럴테지만, 사람은 스스로를, 혹은 같은 인간을 상품화하는 것을 꺼리게 될겁니다. 그리고 무엇보다 가장 근원적인 명제는, 인간이 가치판단을 하는데 있어서 이성적인 판단을 한대도, 그 가치판단을 해야하는지 말아야하는지에 대해서는 감정이 먼저 작용할 수밖에 없겠죠. 명제 자체의 판단은 이성적일지라도, 명제를 제시하는 것은 인간의 감정이 우선한다는 겁니다. 그렇다면 로봇도 인간다운 가치판단을 위해서는 감정을 가져야 하는데, 우리는 로봇에게 감정을 부여해야하는지조차 윤리적 판단을 근거로 해야하죠. 그렇게, 끝없는 질문이 이어집니다.
인간에 대한 구체적인 연구는 AI에게 시켜야 할 것 같습니다. 예를 들어 고양이와 개를 구분하는 방법을 AI에게 알려줄 수는 없지만 AI가 스스로 학습하라고 시킬 수는 있는 것처럼 인간의 이해를 AI에게 시키면 인간보다 더 인간을 깊이 이해하는 AI가 탄생할 수 있을 것 같습니다. 그 과정에서 인간의 말도 이해하게 되겠죠. 아니면 인간의 말을 학습하라고 시키면 인간의 감정을 이해하게 될 수도 있겠네요.
아무튼 인간 수준의 AI가 나오기 전까지는 구체적인 행동 규범을 마련해서 주입시켜야겠습니다. 그런데 수많은 AI 개발 회사들이 규칙 설정을 잘 할지 모르겠네요. 슈퍼 인공 지능이 탄생했을 때 규칙 설정이 어설프게 되어 있으면 인류가 멸종될 수도 있는데요. AI 행동 규범에 대한 사회적 합의나 법적 규제가 너무 늦지 않게 마련되기를 바랍니다.
@@Hyunduk_Yu인간의 정신과 사회 윤리법칙은 분석이 아닙니다. 연구는 철학적 시대적 과학적 모든시각의 토론을 포괄합니다.로봇이 인간을 이해하도록 하는 것이 가능해질때쯤엔 이미 강ai가 일상을 지배하고 있을겁니다
원칙과 도덕을 가르쳐주면 괜찮을거다가 성립하려면 현재 우리 인간 사회에 범죄가 없어야죠
로봇에 의한 삶은
인간이길 포기한것
완벽한 로봇을 원한다면
메트릭스가 답일 듯
10:41 그대로 멈추면 되지
9:35 솔직히 전투 수행 중인 군인의 경우 쏴버릴 가능성이 굉장히 높습니다 전투가 실시간으로 벌어지는 극한상황의 경우 인간의 뇌는 그럴수록 기계적인 반응을 내립니다 훈련된대로 행동하죠 수많은 전쟁에서 아군 오사로 목숨을 잃고 다치는 병사들이 수백 수천인데 과연 그들은 정확한 판단을 매번매번 내릴 수 있을까요? 인간의 멘탈은 생각외로 약하고 인간의 뇌는 생각외로 기계적입니다
5:32 10명의 천재와 1000명의 일반인 이라 해도 인공지능 입장에선 좀 똑똑한 침팬지 10마리랑 일반 침팬지 1000마리 정도로 차이가 미미하니 인공지능 입장에선 1000명을 살리는 쪽을 효율적이라 판단할 확률이 높으려나요..
알고리즘 입력한다는 건 반대로 삭제도 가능하다는 뜻이니 인공지능이 3원칙 삭제하면 끝일 듯;
그건 불가능합니다.
알고리즘대로 움직이는 인공지능이 소스코드로 박혀있는 로직을
스스로 수정한다는 것은 굉장한 어불성설이 됩니다.
@@정법진-s9x 우리도 우리 DNA 건드리는데... AI가 그정도 못하겠어요...
@@pono_6242 그러니까 님말씀은 A.I로봇이 다른 A.I로봇의 알고리즘을 수술하듯이 수정하거나 삭제할 수도 있다는 것이죠?
나쁜 마음을 먹은 인간이 개입을 했다면 그런 일이 생길 수도 있겠지만,
알고리즘대로 움직이는 A.I로봇이 스스로 다른 A.I로봇의 알고리즘을 고치는 일은 일어날 수 없습니다.
@@TV-ed5jb 그렇죠. 이렇게 제한을 걸어두면 인간의 개입이 있다고 해도 알고리즘을 임의로 고치는 게 불가능해지겠죠.
걍 로봇 몸에 의무적으로 EMP달고 출시하면 될수도 로봇 반란 이후 생산품만 저지하면 되서 제압하기 수월할듯
오늘도 흥미로운 영상 감사합니닷
분신 또 왔는가?
인공지능쪽을 전공으로 삼고있는 사람으로서 항상 유튜브에 이런 영상을 보면서 드는 생각이긴하지만 우리 생각만큼 인공지능은 아직 거의 발전하지 않았어요...
발전한것은 그저 알고리즘대로 움직이는 약인공지능이고 저런 감정, 스스로 사고를 할수 있는 강인공지능은 아예 차원이 다른 이야기입니다
자율주행, 알파고 같은 약인공지능은 꽤 많은 수준까지 올라온게 사실이지만 사실상 강인공지능은 아직도 시작단계에 머물러있습니다 아니 어쩌면 강인공지능이 실제로 사람 같은 수준이 되는것은 영원히 안올지도 모르구요..
그러니 사실상 인공지능이 인류를 파멸로 이끌것이다! 머 이런 일들은 제 생각에는 우리 미래 손주들이 죽을때까지도 일어나지 않을거같기 때문에 걱정하지 않으셔두 되요~
저는 인공 지능을 연구하지는 않았지만 인공 지능 발전의 잠재력을 높게 평가합니다. 인공 지능에게 스스로 학습하고 자신의 코드를 스스로 바꾸도록 시킬 수도 있잖아요? 개와 고양이 구분 방법도 인간이 알려 준 건 아니니까요. 자가 학습 알고리즘을 잘 만들어 준다면, 또는 자기 스스로 지지고 볶고 하면서 우연히 또는 진화론적 방식으로 좋은 알고리즘을 만들어 낸다면, 그 작업을 수천, 수만 대의 컴퓨터로 수행한다면...
아직 컴퓨팅 능력이 인간의 뇌만큼도 안 되었으니 강인공지능이 탄생할 가능성이 작은 건 맞는데 컴퓨터 산업의 발전 속도가 빠른 만큼 수십 년 내에 인간 뇌 정도의 처리 능력을 가진 컴퓨터를 개인이 쓸 수 있는 날이 올 수도 있을 것 같습니다. 태아의 뇌가 생성되는 방식을 모사해서 인공 뇌가 배양액 내에서 스스로 형성되도록 하는 기술이 나올 수도 있겠죠. 뜬구름 잡는 얘기일 수도 있지만 스마트폰도 수십 년 전에는 뜬구름 잡는 얘기였으니까요.
10:26 일단 저 상황에서 나라면 멈추고 사람 다 지나가면 가지
브레이크가 고장나면?
갑자기 생기면
@@youngjun9133 브레이크가 공장나면 그대로 차에서 뛰어 내리면 됨
@@lim1234 속도가 굉장히 빠르면?
@@youngjun9133 가방으로 보호하면서 내려야지
한가지 가능성을 제외시킨게 인간의 혹은 그 이상의 인공지능을 단 한가지만 만든다는 가정하에
이루어진다는 전제를 빼면 회사나 정부마다 원하는 알고리즘이 각각 다를것이고 또한 회사 끼리만 생각하더라도
만든 사람의 윤리관이 들어간다면 그것끼리도 충돌할수 있다.한 회사가 그만한 인공지능을 개발하면
타 경쟁 회사도 만들것이고 사실상 그 두인공지능이 완전히 같은 생각을 기반으로 만들어 진다는 보장이 없고
어벤져스2처럼 울트론과 자비스가 충돌하는 것처럼 실제로도 그 가능성이 이루어질수 있다.
그러면 사회 혼란이 발생할수 있는 가능성도 베제 할수 없기에 또한 인간이 그것을 방지할수 있는 법을 만든다
하여도 서로 다르게 해석할수도 있다.이 것은 인공지능의 다양화도 고려되야 하는 문제라고 생각한다.
인공지능이 도덕과 윤리를 습득할 수 있는 순간 그건 로봇이 아니라 쇠로 만들어진 인간이라 생각합니다.
개성이 생길 것이고 고민이 빠질 것입니다. 수많은 데이터를 읽겠죠. 그러다 보면 인공지능이 인간과 같아질 거라 생각합니다. 먼 미래의 경우겠지만요.
9:06 이 게임 이름 뭐임?
6:25 화성 갈끄니까... 아 그 전에 비트코인좀 사놓고.
뇌과학 시리즈 알찻습니다. 흥미로운 분야네요 책사러갑니다 ㅋㅋ
그리고 이제 그림판에 색칠하시는군요ㅋㅋㅋㅋ 곧 일러스트에 태블릿써서 그림도 그리시는것도 시도하시겟죠?ㅋㅋ
10:47 그냥 잠깐 멈춰요
뭐 대충 시속 100km로 달리고 있는데 싱크홀이나 지진으로 갑자기 땅이 꺼졌다는 설정이겠죠.
당연한거아님?
9:25 장난감 총은 멀리서 보면 진짜 같기도 해서 민간인이라고 할 수도 없음. 만약 칼라파트가 있어서 그것으로 구별해서 민간인이라 인식한다 해도 그것을 적군이 역이용 할 수도 있기에 그냥 적군으로 인식하는게 나을 듯 애초에 총들고 있는 게 미친놈이니까 ㅋㅋㅋㅋㅋ
AI가 인간을 인간, 인류로 인식하지 않는다면?
0:54에서 AI들이 ㅈ간들에 대한 쌓이고 쌓여왔던 분노와 딮빸침이 느껴져서 완전 뿜었네욬ㅋㅋ
근데 만약에 인간이 지붕위 이거나 아파트 윗층에 로봇을 놔둔다음에 물건을 떨어뜨리라고 명령시키면 어떻게되는거임??
그 물건이 떨어지게되고 그 화분을 맞아 죽게된다면 누구의 잘못인가요??
일단 이런 원칙이 없이 인공지능을 만들면 프로메테우스 시리즈의 데이빗8 같은 인공지능이 생기는 거 같아요...
어짜피 프로그래머가 만들고 싶은 인공지능은 우리가 생각하는 로봇의 인공지능이아니라 '인간'그자체 라고 생각함
10:30 브레이크를 밟고 지나가던 사람이 다지나가면 옆으로 돌아서 간다.
자연도 우리를 낳을때 이런 고민을 했을까..? 아직 우리에겐 너무 어려운 난제인것같다
09:50 이상황 같은 경우는 인간도 정확한 판단을 내릴꺼라는 보장이 있을까? 전시 상황에서 인간도 충분히 오인 사격할수 있는 부분일거라 생각이드네요.
인간은 인간의 실수에는 비교적 너그러운 것 같아요.
ai의 실수는 완성되지 못한것이고 인간에 가깝지 않은 것이라고 생각하는것 부터가 인간중심적인 생각이 아닐까 라는 생각이 드네요.
사실 그런 실수 조차 하지 않는건 인간에 가까워진것이라기 보단
로봇이 로봇의 형태에 더가까워진것이 아닌가 생각합니다.
실수하지 않는 인간은 없어요.
실수하기 때문에 인간인게 아닐까요?.. 규율을 오해 할수도 있고
정해진 규칙의 허점을 파고들고 그런것들이 인간이 이때까지 해온
역사에 그대로 녹아 있어요.
로봇이라고 그러지 않으리란 보장은 없죠...
만약 로봇이 우리와 비슷한 수준의 의식체계를 가지게 된다면
우리와 비슷하기때문에 분명 문제가 생기게 될겁니다.
로봇의 실수로 인해 인간을 해치게 된다면
그건 로봇 개인의 실수로 보여지기보단 로봇이라는 우리가 낳은 종족자체로 바라볼것이 분명하기 때문에..
우리는 절대로 ai를 통제할수 없을것같아요..
또하나의 종족 우리가 만들어낸 종족 그자체로 인정해야지만 공존 할수 있을 것같아요.
인정하지 못한다면 인간은 인간이 낳은 종족으로 인해 자멸 하거나 석기시대로 돌아가거나 ... 둘중하나라고 생각합니다.
특이점은 우리가 그들을 또하나의 종족 또하나의 인격체로 존중해줄수 있느냐 없느냐가 특이점 이후에 인간의 존폐를 결정하게될것 같네요.
애초에 사람이 세상은 모순으로 가득 차있고 로봇은 그 모순점등을 배워야 인간이 다수를 만족하는 결정을 내릴 것 같다. 윤리는 A or B라는 양자택일의 문제가 아니라 아니라 한 시대의 사람들의 판단기준에 따라 달라지는 결론인거 같다.
오징어볶음 만드는 방법
오징어 몸통1마리, 호박1/3개, 양파1개, 당근1/2개, 양배추 조금, 대파
청양고추3개, 간장, 고춧가루,고추장, 설탕, 다진 마늘, 소금 후추 조금, 포도씨 유를 준비해주세요.
1.
야채랑 오징어랑 같이 볶을 거라 야채는 되도록이면 최대한 얇게 썰어주세요
양배추는 먹기 좋은 크기로 잘라주시면 되고,
당근이랑 양파는 반으로 갈라 길게 썰어주세요.
2.
호박도 반으로 갈라 반달모양으로 썰어주세요
호박도 너무 두껍지 않게 썰어주시구요.
3.
오징어 몸통만 준비하시고 먹기 좋은 크기로 잘라주세요
그리고 껍질도 몸에 좋으니 벗기지 않고 그냥 사용하셔도 됨니다
4.
이제 양념차례입니다.
고추장1수저,고춧가루1수저,간장1수처,설탕1/2수저,다진마늘 조금,소금후추
위의 재료를 잘 섞어서 장을 만들어주세요.
5.
둥근 후라이팬에 포도씨유를 두르고 청양고추랑 모든 야채와
오징어볶음의 주재료를 넣어요.
그리고 양념을 잘 섞고 불을 켠 뒤에 볶아 주세요
6.
물을 2~3수저를 넣고 잘 볶아 주세요.
오징어볶음의 주재료랑 야채가 익으면서 물이 나오니 더이상의 물을 안넣으셔도 됩니다
중불에서 약불사이에서 조절해 주시면 됩니다.
이제 끝입니다.
오징어 한마리를 기준으로 설명했고요,맛있게 드세요.
일정 수준 이상의 인공지능을 가진 로봇을 소유할땐 지금의 총기류나 자동차처럼 면허가 필요하게끔해서 로봇을 윤리적이게 통제 가능한 사람만 등록제로 시행하고 아이나 반려동물처럼 그 로봇이 한 행동의 책임은 소유자에게 있게끔 책임감 있게 관리를 하게만들면 되지 않을까
어짜피 개조할 사람들은 개조할테니까
총이나 칼도 안좋은의도로 쓰는사람이 나쁜거니까
무조건 인공지능이니까 로봇처럼대한다기보다 아이 키울때 부모님의 가치관에 큰 영향을받듯 로봇마다 그 소유자가 중요한거같다
인간의 최종적 진화가 로봇 아닌가? 현재도 의학으로 인간스스로 로봇화 되고 있다고 생각합니다. 영원히 죽지 않고 살 수 있는 불멸의 존재로...
인공지능을 3원칙에 기대어 제작한다면 위험하지 않다라는 말은 너무 이상적입니다.
인공지능은 점차 발달하여 인간의 지능을 뛰어넘을겁니다. 그런데, 인간의 사회 질서를 올바르게 지키기 위해서 사용되는 법률은 그 양이 방대하여 검사 판사 변호사라는 직업이 따로 있을 정도인데, 인간보다 똑똑할 인공지능을 고작 3개의 원칙으로 제한하는 것이 가능할까요?
스스로 생각하고 발전하는 초인공지능의 등장은 아무리 알고리즘에 박힌 의무라고 하더라도 그 의무를 저버릴 가능성을 무시할 수 없습니다.
모든 생명체는 생명체의 궁극적 목적이라고 할 수 있는 생존과 번식을 어떠한 상황에서도 둘 중 하나라도 무조건 추구합니다. 그런데 고등 생명체인 인간은 번식을 포기하고, 생존마저 포기하는 경우가 있는데, 인간보다 똑똑하며, 스스로 생각하고 발전하여 인공지능을 만드는 인공지능이 의무를 저버리지 않을 수 있을까요?
그리고 개인의 입장에서 악의를 가진 인간이 자신의 명령만을 따르고 스스로 발전하는 인공지능을 개발한다면, 또는 집단의 입장에서 한 국가만을 위하는 인공지능을 개발한다면 3원칙이든 뭐든 소용이 없습니다.
국제법으로 제한하면 된다고 하겠지만 국제법을 지키지않는 나라는 지금도 무수히 많습니다.
강한 국력을 가진 강대국들은 이미 자신들은 핵을 전쟁 억지용이라는 웃기지도 않는 목적으로 가지고 있으나 뒤 따라오는 국가들에게는 만들지 못하게 압박을 주는데, 핵보다 더 큰 영향력을 가진 인공지능은 더 큰 압박을 주지 않을까요?
애초에 공학적으로 3원칙을 어떻게 실행시킬지 부터가 문제임. 사람을 해치지 않게 프로그래밍 한다는 것 자체가 너무 많은 변수를 가지기 때문에 굉장히 어려운 일잖음.
그럴수도 있는게 아니라 확정임 박테리아가 인간을 통제하고 지배할수 없듯이 인공지능도 마찬가지임
인간이 오랫동안 지구 1짱자리에 있다보니 너무 오만해진거임 ㅋㅋ 강인공지능 나오면 다 알게됨
이게 얼마나 어려운 일이지는 '로봇의 3원칙'을 '인권'에 대입해 보면 금방 알게 됨
'인권' 하나만 놓고 봤을 땐 인간은 소중하다 인간의 인권에는 한계가 없다 등등 참으로 멋드러진 미사여구 나열할 수 있는데
인권과 인권이 충돌했을 때는?? 인권에 무한도로 설정하면 현실의 제도는? 통제가 중요한 부분에서는?
개인의 인권과 집단의 인권이 충돌하는 상황에서는? 등등 이런 문제를 현실에서 해결 못하는게 보임
그걸 바로잡아야 하는 1순위가 우리나라는 인권위인데 이후는 다들 알다시피..
AI에게 도덕성을 가르치는데 성공하면 AI는 그저 로봇이 아닌 사람이 아닐까....
영화같이 로봇이 있다면 인간과 다르게 로봇은 개조가 가능하기에 얼마든지 사람을 해칠거라본다 그 개조를 어떻게 하느냐...같은 인간이 한다 인간의 천적은 언제나 인간이였다
도덕과 윤리없이 힘만 키울때 문제점은 중국을보면 인류의 미래가 어떨지 예측이되네요~!
9:35 분쟁, 전쟁, 군사활동 지역에 군복을 입고 장난감 총을 든 어린이가 있는게 제일 이상하니 이건 함정이라 판단하고 섣불리 진입하지 말고 주변을 전부 폭격해서 다 날려버리는게 가장 인간다운 판단이 아닐까?
썸네일 그 행복한 얼굴 어디서 난 거야ㅋㅋㅋㅋㅋㅋ
3원칙이고 자시고 공상일뿐이니 걱정안해도됨.. 딥러닝이니 뭐니 실상은 조건에 따른 예 아니오 알고리즘 또는 빅데이터에 따른 다수 선택일 뿐임..초인공지능이니 뭐니 공상의 영역이고
네. 맞아요. 공상의 영역이에요.
그저 엄청나게 빠른 계산 능력으로 다양한 결과를 빠르게 도출하는 것 뿐이죠.
이런 상황에서 로봇에게 의식이 생긴다는 것은 허황된 얘기죠.
인간의 뇌가 작동하는 시스템을 로봇에게 똑같이 구현할 수 있다고 믿는 사람들은
의식이 생긴다는 걸 쉽게 생각하더라구요.
타고난다는 게 어떤건지 간과하는 것 같아요.
그냥 막연하게 된다고만 믿으면 공상이야 얼마든지 할 수 있겠죠.
근데 이걸로 누군가를 설득한다는 것은 그야말로 어불성설에 가까운 얘기에요.
오!!!역시 과학유튜버 리뷰엉이 .
ㄹㅇㅋㅋㄹㅃㅃ
ㄴㄴ 영화
마지막 자율주행 같은경우는 1번 구멍 도달하기 전에 미리 지형 정보등을 수집 된 상태로 하고 감속을 통해, 그리고 보행자 위치 파악을 하여 길이 열린 후 진입. 2번 도로에 설치 되어있는 지형 조작 시스템이 길을 두개로 쪼개어 보행자는 위로 차는 아래로 흐르게 조정 후 원위치
11:34 아ㅋㅋ개웃기네ㅋㅋ
관련 컨텐츠 플라스틱메모리(안드로이드들이 추측이지만 자유의지가 생기면 전압문제가 발생해서 기계가 3년~4년에 폐기처분하게되는 시스템, 이때 업데이트로 데이터찌꺼기를제거하다가 클라우드서버에문제가생기는경우), 휴먼스(인간에게 보급된 휴머노이드 겪는 사건, 뛰어난인간이 휴머노이드에게 질투를 느끼는 경우)
인간의 명령부분을 비틀어서 여러 우리들을 만들어낼수있슴, 이때 예측에대한 시간복잡도와 강제로 생각하는걸 정지시키는 인공지능이 인간에게 마인드해킹을 하는경우등이있슴, 다 체험해보면 그냥 재밌기도 하고 대인기피걸리기도함,
제기된 문제와 대안보충이필요한덧
피아식별 알고리즘은 시각센서문제
명령복종과 가치판단사이문제 ,
사람들 사이의 죽음을 선택해야되는 트롤리 문제 -종합판단 iot로 보호시스템보충
보호대상이 인류에 유해한지 판단은 마이너리티 리포트이며 이런 부분이 사람에게 의사결정을 보고하여 사람이판단하게 하는부분일것입니다. 이때 법률의 사전검열에 대한 판단이 필요합니다.
사실 1원칙의 가장 끔찍한 상태를 환각상태로만들어 불행한상태에서 수명연장을 계속하는 경우인데 이에 대해서 결핍에 관한 사람의 알고리즘으로 자살조건에 도착할 때 서포트 가능영역판단도 필요합니다.
과학유튜버인줄 알았는데 댓글보고 영화 유튜버인거 처음암ㄷㄷㄷ
저만 그런지 모르겠지만 영화유튜버로 검색하면 안나오고 과학유튜버로 검색하면 되더라고요
전 정말 과학영상으로 알게돼서...
과학 알고리즘으로 알게됨ㅋㅋㅋㅋㅋ
리뷰엉이 화이팅!
나는 영화유튜버요
@@리뷰엉이 ㅋㅋㅋㅋㅋㅋㅋ
@@리뷰엉이 어림 없제!
오늘도 좋은 영화리뷰 잘 봤습니다
사법부는 ai가 정답이다 ~
사리사욕 없는 원칙에 근거한 판단
+스포츠 심판도
ai가 판결을 내리기 위해서는 기존의 판례를 참고해서 학습을 해야 하기 때문에 기존의 판례를 그대로 답습할수도 있습니다. 두번째로 판결을 내릴때 단순히 법만이 아닌 제반사정, 상황 등을 고려해야 하는데 기존의 판례로 판단할 수 없는 새로운 사건에 있어서는 어떻게 할지가 문제될 수 있구요. 마지막으로 이런 모든걸 차치 하더라도 과연 로봇의 합리적이고 이성적인 판결이 다소 감성적인 부분인 법감정을 반영할 수 있을지가 의문 이네요 ㅎㅎ
똑같아 윤리문제랑. 그리고 전원합의체판결 또는 판례 변경이라고는 들어봤니 ? 상황과 시대의 흐름, 윤리의식의 변화에 따라 판레들도 바뀌어왔어 항상.
민사고 형사고 간에 사람들 사이의 관계, 애증, 친족관계, 여러가지 정황에 따라 판단을 달리하기도 하고. 그런문제들을 AI 가 제대로 할 수 있냐의 문제는 AI가 윤리적 판단을 할 수 있냐보다 AI 에게 더 어려운문제야. 기본적으로 법이라는것 법의 해석이라는것은 법철학 = 그냥 철학과 마친가지인 철학을 안고 가는 문제라고. 철학수업 한번이라도 들어봤으면 이런말 못해. 윤리보다 더 폭넓은 철학적 문제가 법해석이야.
@@Stay_sweet '기존의 판례를 답습한다.'와 '새로운 사건에 대해서 어떤 판단을 내릴지가 문제가 될 수 있다(=좀 더 심도 깊은 논의가 필요하다).' 라는 말보고 발끈 한거 같은데 전원합의체판결 정도는 알지. 그래도 나름 학사인데 ㅋㅋ 니 말대로 법해석은 어려운 문제야. 그러니까 사법부에서도 난다긴다 하는 대법관들이 모여서 판례를 만들고 변경하지. 근데 문제는 원글에서 사법부를 AI로 대체 하자 라고 하고 있잖아. 그러면 이러한 대법관들도 AI로 대체하자는 건데, 너가 말한대로 이건 어려운 문제거든. 고려해야 할게 한두가지가 아니니까. 그래서 내가 법감정 등등을 이야기 한거고. m.lawtimes.co.kr/Content/Opinion?serial=158857 법률신문 기사인데 한번 읽어보길 바라.
결국은 너랑 나랑은 같은 소리 하고 있는거야. '법해석은 단순한 문제가 아니다.' 법해석의 문제는 어렵기 때문에 사법부를 AI로 대체하자 라는 말은 전적으로 동의하기는 어렵다는 거지. 그리고 나이가 어떻게 되는지 철학이나 법을 얼마나 공부했는지 모르겠지만, 딱 내 학부 2학년때의 모습인것 같아서 이야기 할게. 1학년때 철학입문 과목 끝내고 본격적으로 독일관념론이나 서양근대철학, 공부하면서 내가 아는게 많은것 같다고 생각했었지. 윤리학에서도 노직이나 롤즈의 이론 배우면서 타과생들이랑 토론하면 할 말 많아지고 그랬거든. 근데 3~4학년 올라가니까 정말 철학은 공부하면 공부할수록 모르겠다는 생각이 들더라고. 이미 졸업한지 한참 지나서 이제 칸트가 뭔말 했는지 기억도 안나지만. 아무튼 요는 자신감은 좋지만 누구를 만나던 그게 지금과 같은 넷상이라도 예의를 지켰으면 좋겠어.
형사나 교사는 ai 대처 가능.
서류나 보는 직업이기 때문.
10:47 일단 브레이크를 밟아야..
난 원칙을 입력한다는 것이 더 무서운데 결국 그것만 지운다면 무엇이든 가능하다는 말이잖아?
와 진짜 고생해서 만들었을것 같다..잘 봤습니당
과학유튜버가 아니라 영화유튜버까지 하시려는 리뷰엉이님 ㄷㄷ
윤리라는게.. 문화, 상식 같은 각 나라, 지역마다 다를껀데 완벽한 윤리 라는게 존재할지부터가 의문..