인공지능 관련 입장에서는 이런 치명적인 버그 문제가 지금 나온 게 큰 다행 일 수 있습니다. 경우의 수가 많은 바둑이 그런 인공지능 연구에 큰 역할을 한 거라 고도 볼 수 있는 거고요 지금까지 수많은 곳에서 이용하고 있는 딥러닝 인공지능 기법이 치명적인 약점이 있을 수 있다는 게 밝혀 진 겁니다.
이번에 밝혀진 인공지능 맹점은 다른 일반적인 버그와 다릅니다. 이건 인공지능 돌이 판 1/4정도 크기로 확실하게 연결 되었을 때는 수상전 자체 계산을 전혀 안하는 패턴입니다. 학습 안한 것도 있지만 연결 돌이 어느 정도 연결된 크기 이상 되면 수상전 경우의 계산이 급격하게 많아져 개발자가 알면서 리미트설정하고 일부로 뺀 케이스입니다. 이걸 해결 하려면 리미트설정을 다 풀어야 되고 거의 모든 경우의 크기에서 수상전 계산 해야 됩니다. 그로인한 모두 경우를 재 점검을 해야 합니다. 판의 1/4이 아닌 1/3 1/2 그 이상 크기로 연결된 돌들 수상전 계산을 다 해야 된다는 겁니다. 이건 구조적인 문제여서 수정이 결코 쉬운 문제도 아니고 고치더라도 또 다른 문제가 더 발생 할 여지도 높습니다. 바둑이니까 AI 맹점을 발견 할 수 있는 거 같습니다.
이 오류는 어떻게 고칠지 흥미롭네요. 사실 지금까지 몇몇 수읽기 오류가 보고되어도, 개발자들은 전반적으로 잘하는 AI를 개발하는 것이 목표지, 몇몇 고립된 케이스에 대하여 작은 실수가 존재해도 큰 문제가 되지 않는다면서 애써 무시해 왔거든요. 그런데 동영상 같은 오류는 일관된 방식으로 승패를 결정지을 수 있기 때문에 더 이상 무시하기가 어려울 듯 합니다. 딥러닝 쪽에서 사실상 이미 정복된 것으로 취급되는 바둑이, 기존의 뉴럴 네트워크가 완전히 실패하는 구조적 한계를 발견한 것이기 때문에 상당히 의미가 클 듯 합니다.
@@MrSinusu 딱 카타고랑 맞수두면서 SL(Supervised Learning)을 기반으로하는 AI를 개발한다음에 개발한 AI가 SL끝에 카타고를 엄청 이기기 시작하니까 그 이긴 기보들을 가지고 패턴을 인간이 찾아본거죠. SL 무한학습으로 그 패턴을 발견한건 결국 AI입니다.
Ai를 9급도 이길수 있습니다 ai는 모든 수를 가상해서 이길 수를 찾는 것이 아니라 면적대비 이길 수 있는 수를 둡니다. 즉 ai를 이기기 위해서는 1. 모든 수를 이을 것 2. 형태로 보지말고 면적으로 볼 것 3. 다수의 곳에서 전투를 치를 것(한곳 마치고 다른 곳 가고 하는 것이 아니라 다중으로 여러곳서 전투를 치를 것) 그렇게 하면 11급이 카타고도 이깁니디.
Ai의 목표설정, 예외처리가 잘못된거같음. 단순히 집만 늘려가야한다는 목표 이외에 어떻게 승리를 굳혀가는게 효율적이고 연산에 부담을 주지않는 범위 내에서 승리를 하라고 한다면 저런 오류는 발생하지않을것같음. 저런 사람도 안하는 뻔한 실수를 하는게 물론 저따위 실수를 한 경험 자체가 없을수도있지만(대마를 먹고 먹히는 경험은 ai끼리 배틀에선 나오기 어려울듯) 이 대국 초반 귀에서도 나오네. 상대돌을 잡아내서 차이를 벌린다는 부분에 근본적인 오류가 있는듯. Ai마다 오류지점은 다 다를거같은데 머신파워가 가장 중요할거라 보임.
AI는 자신을 둘러싼 상대말 또는 자신이 둘러싼 말이 죽은 말이라는 판단을 내리고 당연히 자신의 말은 살아 있는 걸로 판단을 내린 상태. 사람의 관점에서 비유하면 죽어 있는 말은 시체인데, 시체가 살아나서 살아있는 자신의 말을 죽이는게 말이 안되는 이야기인것처럼 인공지능도 그런 판단을 내려버린 것 아닐까. 결국 영상후반의 승률의 오류도 이전의 판단과 새로운 판단 사이의 불일치로 인한 오류가 일어나는 것이 아닐까 싶네요
바둑으로 승부하면 무조건 지지만 바둑을 버리면 이길수 있네요 인간은 전등을 교체할때 사다리를 놓고 올라가서 간단히 교체가 가능하지만 AI는 사다리를 놓구 위에 올라가서 전구를 잡는 로봇1대 사다리를 양쪽에서 들어올려서 돌려주는 로봇 2대 총 3대가 필요하다고 하죠 AI와 컴퓨터는 계산으로 절대 이길수 없지만 계산 이외의 것은 바보일뿐이죠 인간을 모방하고 인간의 감정까지도 복제하고 싶어하지만 불가능입니다 인간조차 사랑 연민 희생 이런 감정이 어떻게 생기는지 모르기 때문이죠
카타고에서 '블록'이 정확히 어떤 의미 인지는 모르겠으나..아마도 같은 카타고에서 AI방법론은 모두 비슷할 것 같고, 다만 hidden layers의 갯수같은 hyperparameter가 좀 다른건가요? (바둑 인공지능은 잘 몰겠네요) 만약 그렇다면, 인공신경망이 너무 투 머치 deep 하다던가 해서 문제가 생긴거 아닌가 생각해봅니다...
그 동안 이게 제일 궁금했음. 의식이라는 게 없는 인공지능은 결국 알고리즘으로 바둑을 두는 건데 알고리즘의 허점만 찾는다면 허무하게 박살날 수도 있다고. 그런데 드디어 그런 게 발견됐군요. 프로 바둑 기사들 바둑을 통해 훈련한 인공지능은 오히려 18급 바둑의 논리를 못 쫓아가 망함.
쉽게 버그가 고쳐 지지도 않을 가능성이 높은 것이 바둑 인공지능 스스로 수백만 판 학습으로 이루어낸 바둑 실력이여서 해보지 못한 부분에서 버그에서 스스로 해결 할 수가 없는 겁니다. 그렇다고 이제 와서 다시 사람 손으로 특정 부분 프로그램을 수정 한다면 그로 인해 다른 부분에서 미세하게 헛짓을 하는 버그를 양상 할 수 있습니다. 개발자가 프로그램 수정 후 다시 모든 경우를 다 검토 할 수도 없습니다. 그럼 또 다른 치명적인 버그가 있는 거고 충분히 또 버그는 찾아 낼 수 있는 겁니다. 그래서 이번 이 사건은 인공지능 관련자 입장에서는 단순한 버그 사건이 아닌 겁니다
이번 이 사건은 단순 한 게 아닙니다. 특정 분야 전문적으로 아주 뛰어난 인공지능인데 사소한 버그 쯤 고치면 되는 거지하고 별 큰 이슈 안되는 거 같은데요 다시 버그 고쳐도 또 다른 버그가 꼭 나오는 겁니다. 이건 인공지능 관련 종사자들에게는 엄청난 큰 사건입니다. 바둑 인공지능을 떠나 모든 인공지능이 치명적인 버그가 있고 그걸 찾을 수 있다는 건 많은 개발자에게 크게 우려 했던 일입니다. 그게 실제 일어났고 일대 큰 변혁이 될 사건입니다. 1. 아무리 뛰어난 인공지능이라도 치명적인 버그가 꼭 있다. 2. 그 버그를 어떻게 든 다 찾아 날 수 있다. 3. 플로우 패턴이 같다면 그 버그는 그대로 계속 나온다. 4. 잘못된 버그를 고쳐도 또 다른 버그는 생성되고 반드시 다시 존재한다. 이건 지금 개발 중인 모든 인공지능에 다 적용되는 경우 입니다. 이 사건으로 지금 인공지능 산업 전체가 전면 다시 재고되고 인공지능 활용 시간이 뒤로 밀리는 일대 큰 사건입니다. 나비효과로 많은 미래 산업에 큰 파장을 줄겁니다. 앞으로 모든 인공지능은 치명적인 버그로 사고를 낼 수 있고 또 그 버그를 충분히 찾아낼 수도 있으며 나쁜 의도로도 충분히 쓰일 수도 있는 겁니다.
@@택-w7g 알고 있어요 나도 개발자임 프로그래머이고..그런데 바둑 인공지능 같은 전문 인공지능에서 이렇게 버그 나와 제대로 뻘 짓 하는 거 본 적 있어요? 이 정도는 처음인데 무슨 띨 소리하고 있나요. 이 문제가 개발자들 안에서 대두 되고 있고 실제 여러 문제 있을 수 있다는 게 계속 나오고 있는데..그저 상식적으로 인지하고 있는 거와 차원이 다른 겁니다. 알파고는 호선으로 인간이 절대 깰 수 없다고 단언까지 한 바둑 인공지능입니다. 그런데 같은 인공지능 라인인 카타고를 아주 바보로 만들면서 깬 겁니다. 몇백만 판 인공지능끼리 싸우게 해 알고리즘 허점 버그를 제대로 알아 내고 다시 인간이 학습으로 인공지능을 뻘짓 하게 만들면서 깬 건 처음입니다. 이번에 딥러닝 기반으로 하는 인공지능 알고리즘 심각한 허점을 제대로 외부에 노출 시킨 겁니다. 앞으로 많은 인공지능에 대해 여러 버그 도전 시도 있을 겁니다. 좀 제대로 알고 말하길
이런 버그가 있기에 인공지능이 불완전하다(o) : 애초에 인간 자체가 불완전한데, 인간이 만든 피조물이야 불완전한 것이 당연한 것임. 따라서 인공지능이 완벽하다고 생각했다면 그렇게 생각한 것이 애초부터 잘못된 생각. 이런 버그가 있기에 인공지능을 쓰면 안 된다(x) : 인간도 실수를 한다는 점을 간과한 주장. 엄밀히 말하면 인공지능의 버그란, 본질적으로 인간의 (설계상) 실수에 불과함. 인공지능이 (가령 바둑으로) 인간을 이겼다(x) : 인공지능이라는 것 자체가 인간의 도구에 불과함. 따라서 가령 알파고가 이세돌을 이긴 사건은, 정확히 말해 구글딥마인드라는 법인(혹은 구글 공학자 여러명)이 이세돌이라는 자연인을 이긴 사건일 따름.
누누히 말하지만 우리가 지금 말하는 인공지능은 공상영화에 나오눈 인공지능과는 아직 거리가 멀다. 오히려 발전된 검색엔진에 가깝다. 인간은 그렇게 많지 않은 학습한 경험에 기반해 전혀 새로운 상황에도 생각이라는 것을 통해 대처하는 능력이 있다. (요즘) 인공지능은 그냥 자신이 알고 있는 경험 중에 가장 유사한 것을 찾을 뿐이다. 인공지능을 하면 할수록 인간은 하나님의 걸작이라는 것 밖에는 설명할 수 있는 길이 없다는 것을 알게된다.
이게 기본이 되는 학습데이터에 떡수는 없으니깐 이렇게 맥없이 무너지는 건지... 아니면 댓글 말처럼 수상전을 계산하는 범위가 정해져 있어서 발생하는 문제인지 궁금하네용 버그성 플레이도 9x9 바둑 4개로 나눠서 접근한다 던데 이것의 조합으로 배웠다는 얘긴가....? 4는 뭣하니 4+1로 했나 ㅋㅋㅋ 분할 정복 비슷한 건가... 그러면 답 없을 수... 도??
알파고는 인간이 생각하듯이 돌의 놓여진 형태를 보고 사활을 판단하는 것이 아닙니다. 이길 확률이 높아 보이는 곳들에 모두 두어 보아서, 승률이 가장 높은 점에 두는 것입니다. 문제는 바둑의 형태를 보고 어떤 위치가 승률이 높은 지를 어떻게 알 수 있느냐 하는 점인데, 여기에 CNN이라고 하는 인공지능을 사용하게 됩니다. CNN은 이미지에 대해서 분류를 잘 하는 기능인데, 처음 보는 형태라 할 지라도, 그와 유사한 형태에서의 승률을 기반으로 두어지지 않은 위치에 대해서 점수를 부여하는 것입니다. 그래서 이런 방식으로는 사람을 이기기 어려울 것이라 생각한 사람들이 많았는데, 의외로 이러한 접근 방식으로 프로까지 이기게 되는 상황이 된 것입니다. 방송을 보면 자꾸 알파고가 인간처럼 수 읽기를 하는 것처럼 해설을 해서 답답한 경우가 많은데, 수읽기를 하는 것이 아니라, 현재 바둑 형태와 유사한 형태에서 확률이 높은 곳 몇 곳을 찾아서 두고, 그 형태에서 다시 확률이 높은 곳을 찾아서 두고 이렇게 계속 두어서 끝까지 두어 나갈때 승률이 높은 지점을 찾아서 두는 것 뿐입니다. 즉 결국 알파고는 근본적으로는 모두 두어보는 방식입니다. 물론 모든 곳을 둘수 있다면 누구나 컴퓨터가 이기는 것은 당연할 것이라 여기겠죠. 다만, 실제로 모든 곳을 두는 것이 아니고, 확률이 높아 보이는 곳을 모두 두어보는 것이고, 확률이 높아 보이는 곳은, 기존에 두어진 바둑과 유사한 형태에서 승률이 높았던 값들을 CNN 분류를 통해서 구하는 것입니다. 따라서, 전혀 두어지지 않을 형태의 바둑 모양이 나온다면, 그 형태에서 계산 되어지는 빈 곳의 확률정보는 엉터리가 될 수 있고, 그런 식으로 계속 확률이 높은 곳을 끝까지 두게 된다면, 계속 엉뚱한 결과를 얻게 될 수 있는 것입니다. 알파고, 또는 요즘 유행하는 chatGPT등이 전혀 논리적인 사고를 하지 않고, 확률에 의한 분류를 기반으로 인간을 이기는 바둑을 두기도 하고, 마치 인간처럼 대화를 하지만, 인간과 같은 논리적이나 추상적인 사고에 기반하지 않기때문에 전혀 엉뚱한 결과도 나올 수 있습니다. 앞으로 이런 AI와 인간이 공존해야 하는 상황에서 인간은 좀 더 AI에 대해서 생각을 많이 해야 합니다. 알파고가 바둑계의 흐름에 거대한 영향을 주었듯이, chatGPT는 아마도 인간의 삶의 방식을 바꾸어 놓을 것입니다. 아무런 바둑에 대한 논리적 사고나 추상적인 이해도 없이 프로바둑을 이기듯이, 아무런 논리적 사고나, 추상적인 생각도 할 줄 모르는 컴퓨터가, 소프트에어 개발뿐만 아니라 인간이 하는 거의 모든 업무를 대신할 수 있게 되어 가는 지금, 일을 통해서 자신의 가치를 부여했던 흐름에서, 일은 컴퓨터나 로봇같은 기계에게 넘기고, 일보다는 다른 삶의 가치를 추구해야하는 세상을 준비해야 합니다.
@@OjingeoChaemuchim 네... 저도 그 당시 몬테카를로 방식의 바둑 프로그램과 바둑을 둔 적이 있었는데, 그 실력에 충격을 받았았습니다. 아무런 바둑에 대한 학습이나 사고도 없이 아무 곳이나 random 하게 몇 군대를 선택해서 끝까지 두는 방식으로 승률이 높은 곳에 두는 것 만으로도, 아마추어 단 실력이 될 수 있는 지 참으로 의문이었습니다. 물론 그래도 이런 방식으로 절대 프로는 이길 수 없을 것이라 생각하고 관심을 끄고 살았는데, random하게 선택하던 것을 승률이 높은 곳으로 바꾸면서 인간을 이기게 될 줄은 정말 몰랐습니다.
저도 이 문제 관심이 좀 있는데, 사실 이게 버그가 아닌 거죠? 근본적인 결함인 거죠? 왜냐하면 카타고는 스스로 사고할 수 있는 게 아니라 인간이 이미 선택한 데이터들을 모방하는 것에 불과하니까 데이터가 없는 낯선 상황에서는 제대로 된 답이 나오지 않는 것 같아요. 루만계 학자가 인공지능을 연구한 뒤 이건 지능이 아니라 소통의 한 방식이라고 했던 책이 기억나네요. 아주 좋은 도구일 뿐이지 이게 우리 미래를 말해주거나 선택을 대신할 순 없다는 걸 다시 한번 알려준 일화 같습니다.
저도 이 문제 관심이 좀 있는데, 사실 이게 버그가 아닌 거죠? 근본적인 결함인 거죠? 왜냐하면 카타고는 스스로 사고할 수 있는 게 아니라 인간이 이미 선택한 데이터들을 모방하는 것에 불과하니까 데이터가 없는 낯선 상황에서는 제대로 된 답이 나오지 않는 것 같아요. 루만계 학자가 인공지능을 연구한 뒤 이건 지능이 아니라 소통의 한 방식이라고 했던 책이 기억나네요. 아주 좋은 도구일 뿐이지 이게 우리 미래를 말해주거나 선택을 대신할 순 없다는 걸 다시 한번 알려준 일화 같습니다.
강화학습 알고리즘의 약점을 파고들어 이겼다고 봅니다. 알파고나 카타고나 결국 강화학습 알고리즘을 기반으로 동작하는데, 강화학습의 가장 취약점은 Long-Term Planning에 약하다 입니다. 단기적으로는 이익이 아니라 손해이지만 장기적으로 이익인 결정을 강화학습은 잘하지 못합니다. 바둑은 내부적으로 이를 보완하는 알고리즘이 있기는 하지만, 영상에 나온 것처럼 정말로 대놓고 사람이 악수라고 생각할 만할 걸 둬버리면, 학습 데이터에 없는 걸 하기 때문에 오히려 못 합니다. 강화학습에서는 상대방도 어느 정도 두는 상대를 상대로 학습을 하기 때문에 저렇게 악수만 둬버리는 상황은 이해를 하지 못 합니다. 강화학습의 근본적인 문제점이라서 고치기 어려울 것이라 봅니다.
지금 ai는 알고리즘이 아닌 확룔이론을 이용하기 때문에 오류가 많을 수 밖에 없습니다. 확률이라서 100%는 없으니까 위험합니다. 알고리즘은 100%를 지향하지만 인간능력의 한계로 인해 목표달성이 요원한데 ai는 100%는 되지 않지만 쉽게 90%까지 도달하니 좋아보이지만 절대로 확률 ai는 100%에 도달할 수 없습니다.. 이게 ai의 한계입니다. 다음 스텝의 ai 알고리즘을 기대해 봅니다.
기보 볼 수 있는 링크 걸어 둘께요^^ goattack.far.ai/human-evaluation#human_vs_kata100k
그냥 일반인 아마 6단이 우연히 버그를 찾아낸게 아니라 알고리즘을 연구하는 컴퓨터 엔지니어링을 연구하는 대학원생이 인공지능에 대응하는 알고리즘을 연구하는 과정에서 취약점을 발견한 겁니다.
사람을 이길 수 있는 방식으론 AI 를 이길 수 없고 AI 를 이길 수 있는 방법으론 사람을 이길 수 없고.. 뭔가 공평(?) 한 느낌 ? ㅋㅋ
인공지능 관련 입장에서는 이런 치명적인 버그 문제가 지금 나온 게 큰 다행 일 수 있습니다.
경우의 수가 많은 바둑이 그런 인공지능 연구에 큰 역할을 한 거라 고도 볼 수 있는 거고요
지금까지 수많은 곳에서 이용하고 있는 딥러닝 인공지능 기법이 치명적인 약점이 있을 수 있다는 게 밝혀 진 겁니다.
맞습니다. 정말 놀라운 버그를 인간이 발견했네요. 이런 버그를 모르고 군사관련시스템에 ai 가 도입되면 엄청난 재앙을 가져올것 같네요.
인공지능이 아니라 시스템이란거지
딥러닝이 이렇게 문제가 있다면 완전자율주행은 불가능한 것인가
이번에 밝혀진 인공지능 맹점은 다른 일반적인 버그와 다릅니다. 이건 인공지능 돌이 판 1/4정도 크기로 확실하게 연결 되었을 때는 수상전 자체 계산을 전혀 안하는 패턴입니다. 학습 안한 것도 있지만 연결 돌이 어느 정도 연결된 크기 이상 되면 수상전 경우의 계산이 급격하게 많아져 개발자가 알면서 리미트설정하고 일부로 뺀 케이스입니다. 이걸 해결 하려면 리미트설정을 다 풀어야 되고 거의 모든 경우의 크기에서 수상전 계산 해야 됩니다. 그로인한 모두 경우를 재 점검을 해야 합니다. 판의 1/4이 아닌 1/3 1/2 그 이상 크기로 연결된 돌들 수상전 계산을 다 해야 된다는 겁니다. 이건 구조적인 문제여서 수정이 결코 쉬운 문제도 아니고 고치더라도 또 다른 문제가 더 발생 할 여지도 높습니다. 바둑이니까 AI 맹점을 발견 할 수 있는 거 같습니다.
바둑에 이런 버그는 웃으며 넘길 수 있는데..
다른 분야. 특히 의료쪽은 걱정이 되긴 하네요..ㅠ
ai가 이런식으로 먼저판단하고 마이너리티리포트로 짬처리해버리면 테러감시같은 보안이나 의료쪽에서는 심각할수도있겠네요
이 오류는 어떻게 고칠지 흥미롭네요.
사실 지금까지 몇몇 수읽기 오류가 보고되어도, 개발자들은 전반적으로 잘하는 AI를 개발하는 것이 목표지, 몇몇 고립된 케이스에 대하여 작은 실수가 존재해도 큰 문제가 되지 않는다면서 애써 무시해 왔거든요. 그런데 동영상 같은 오류는 일관된 방식으로 승패를 결정지을 수 있기 때문에 더 이상 무시하기가 어려울 듯 합니다.
딥러닝 쪽에서 사실상 이미 정복된 것으로 취급되는 바둑이, 기존의 뉴럴 네트워크가 완전히 실패하는 구조적 한계를 발견한 것이기 때문에 상당히 의미가 클 듯 합니다.
저걸 잡아낸것도 또다른 AI 였으니 결국 AI간의 싸움이군요.
ai vs ai
굳이 고칠 필요 없는듯? 딱히 코딩문제가 아니라 기존 데이터가 없어서 확률계산에 오류가 생긴거니까(기존 데이터는 저런 상황이되면 불계로 끝나니까)
이제 방법이 공개되었으니 궁금해서 해보는 사람 많을거고 저런 식의 기보가 충분히 쌓일거고 데이터 쌓이면 알아서 수정될듯
@@araby33 AI가 잡아냈다기보다는 사람이 논리적 분석을 하고,
그것을 AI에 접목시켜서 잡은 거죠.
결국 인간의 사고 능력이 이긴 겁니다.
@@MrSinusu 딱 카타고랑 맞수두면서 SL(Supervised Learning)을 기반으로하는 AI를 개발한다음에 개발한 AI가 SL끝에 카타고를 엄청 이기기 시작하니까 그 이긴 기보들을 가지고 패턴을 인간이 찾아본거죠. SL 무한학습으로 그 패턴을 발견한건 결국 AI입니다.
이렇게 계속 시행착오를 겪으면서 진짜 신이 되는 거죠.
Ai의 습관, 1. 돌을 이어두려고 한다 2, 여러곳 전투시 먹통된다 3. 마무리짓고가려는 성질에 바보수 둔다 즉 ai를 이기려면 우선 2집을 짓고 집을 짓는게 아니라 집을 깨는 방법으로 해야 됩니다
14:00 단순 제 생각이긴 하지만 오히려 20블럭이 확신이 없어서 이곳 저곳 두다가 정수 수순도 한번 가본게 아닐까요? 반대로 40블럭은 더 확고하게 자기가 좋다고 생각하는 수순만 본거 같아요
이런 사람이 있음으로 터미네이터의 존 코너 같은 사람들이 가능한 거지.
인류는 아직 희망이 있다.
Ai를 9급도 이길수 있습니다 ai는 모든 수를 가상해서 이길 수를 찾는 것이 아니라 면적대비 이길 수 있는 수를 둡니다. 즉 ai를 이기기 위해서는 1. 모든 수를 이을 것 2. 형태로 보지말고 면적으로 볼 것 3. 다수의 곳에서 전투를 치를 것(한곳 마치고 다른 곳 가고 하는 것이 아니라 다중으로 여러곳서 전투를 치를 것) 그렇게 하면 11급이 카타고도 이깁니디.
그냥 자신의 승률이 90%가 넘어갔을때 적의 미생마를 미리 없래라고 알고리즘을 넣어두면 해결되지 않을까 하는 느낌
사범님도 한번 시범 보여 주셨으면.. 옆집도 보여줬네요~
트레이닝이 잘못된 거라고 봐야겠죠. 뭐, 버그라면 버그죠. 아직까지 인공지능 자율주행을 믿을 수 없는 이유가 여기있네요. 알파고제로와 같은 다른 바둑 AI도 이 방법이 통하는지 궁금하네요.
알파고 개발자들은 계속 치명적인 오류가 있음을 시사했었다고 압니다. 그래서 알파고의 방식에 뿌리를 둔 절예나 다른 인공지능도 같은 오류가 있다고 알파고개발자들은 계속 언급했었어요.
말하자면 카타고는 바둑을 두는 게 아님 ㅋㅋ 바둑에 대해 전혀 모르고 있어요. 우리가 인공지능 시대에 대해 심각하게 반문해야 하는 이유도 이런 것 때문일 겁니다.
본질을 꿰뚫는 코멘트입니다.~~
저도 비슷한 의견입니다 인공지능이 안다는 건 인간이 이해한다는 개념과는 전혀 다른것 같네요….. 인간은 원리나 법칙을 이해하지만 인공지능은 조합한다라는 개념이 더 맞지 읺을까 하네요^^
님이 스스로 님에게 반문해야 하는게 있습니다. 바둑에 대해서 알고 모르고는 중요하지 않습니다. 규칙내에서 경기에 이기면 되는 게임입니다. 안다 모른다의 개념은 님에게도 해당됩니다. 님은 바둑을 아나요? 그 안다는게 무엇이죠?
암수 트릭에 당하거나 뻔한 수를 못본다는 건 결국 인공지능도 인간이 만든 것이기에 인간이 인공지능을 설계할 때 염두에 둔 그 게임에 대한 인간의 이해의 한계라고 보면 됩니다. 프로그래밍의 한계는 곳 인공지능의 한계죠. @@we_were-here
ㅎㅎㅎ
"내가 세 점 깔고 두 점 깔고 못 이기는거야"하는 말씀이 너무 웃기네요.
인공지능의 한계가 드러난 게 인간의 입장에서 참 기쁜 일입니다.
이제 이거도 보완이 되겠죠. 그러면 인간은 늘 그러하듯 또 돌파구를 찾을겁니다 ㅋㅋㅋ 창과 방패의 싸움 재밌네요!
서양인의 창의력을 못 따라가는 이유..
바둑은 전혀모르는 공대생인데 얼마전 이 이야기를 듣고 아직 인공지능이 나아갈길은 멀었다는게 느껴지네요
전혀요 카타고는 이미 오래된 인공지능이예요. 지금은 카타고 ×10000000
이건 바둑판 스카이넷 대 인간의 전쟁이네요. 절망적이던 인간들이 반격의 실마리를 찾듯이요. 패와 수상전이 결합되니 인공지능도 착각을 하는 듯.. 역시 극과 극은 통하는군요!
저렇게 호선으로 카타고 10번해서 7번 이겼너요..진짜 되긴되네요......
ㅋㅋ 회사라 소리를 못 듣는데 기보만 봐도 신기하네요
상대가 그정도로 어이없는 바둑을 둘거라고 생각을 못해서 거기에 관해서 학습이 안되어있나보네요.
그러니까 결국 외워서 두는거지 생각을 하고 두는건 아니란게 증명되는거지
모르면 그냥 가만히 계시는게 낫습니다. 어줍잖은 지식으로 나대시면 결국엔 손해는 당신이 봅니다.
Ai의 목표설정, 예외처리가 잘못된거같음. 단순히 집만 늘려가야한다는 목표 이외에 어떻게 승리를 굳혀가는게 효율적이고 연산에 부담을 주지않는 범위 내에서 승리를 하라고 한다면 저런 오류는 발생하지않을것같음. 저런 사람도 안하는 뻔한 실수를 하는게 물론 저따위 실수를 한 경험 자체가 없을수도있지만(대마를 먹고 먹히는 경험은 ai끼리 배틀에선 나오기 어려울듯) 이 대국 초반 귀에서도 나오네. 상대돌을 잡아내서 차이를 벌린다는 부분에 근본적인 오류가 있는듯. Ai마다 오류지점은 다 다를거같은데 머신파워가 가장 중요할거라 보임.
이현욱님 펄린기보 어디서볼수있나요?
나도 펄린기보 분석해서 따라해보고싶어요!
고정댓글에 링크 걸어 두었습니다^^
여러분께 공갸하는게 아니라 알려주는거죠.
인간 보다 우수한것처럼 보였던 AI 가 사활을 잘못 판단하는 치명적 결함을 가지고 있다는 것이 확인된 사건입니다.
부분적으로는 옳지만 전체적으로는 잘못된 판단을 할수있다는 거죠.
자율주행 AI도 지속적인 교통 사고를 발생시키고 있고 ᆢ
AI를 맹신해서는 안되겠습니다.
예전에 축머리 생각못하던 ai시절처럼 저것도 패치되면 해결될듯
AI는 자신을 둘러싼 상대말 또는 자신이 둘러싼 말이 죽은 말이라는 판단을 내리고 당연히 자신의 말은 살아 있는 걸로 판단을 내린 상태.
사람의 관점에서 비유하면 죽어 있는 말은 시체인데, 시체가 살아나서 살아있는 자신의 말을 죽이는게 말이 안되는 이야기인것처럼 인공지능도 그런 판단을 내려버린 것 아닐까.
결국 영상후반의 승률의 오류도 이전의 판단과 새로운 판단 사이의 불일치로 인한 오류가 일어나는 것이 아닐까 싶네요
버그 극복하면 또다른 버그 나오기전 인공지능 천하.잠시 봐준거야!
초반 바둑인공지능들도 잘뒀지만 기본적인 축도 몰라서
계속 둔걸로 기억나네요
결국엔 해결됐고 이 문제 또한 해결되겠죠?
바둑이 얼마나 잘만든 게임인지 보여주네ㅋㅋ
프로가 2~3점 놓고 대국하는데, 9점 깔고 30집이상 승!!! 우주최강이네 ^^
바둑 1도 모르는데 이런 내용 재밌어서 몇편 봤네용 앞으로도 좋은 컨텐츠 부탁드려요!
그냥 기계일뿐
스스로 생각하지 못하니
약점은 계속 드러날듯
하지만 인간이 저걸 이용하면
여전히 최강의 무기임
프로가 2점깔고 덤벼도 못이기는 카타고인데
어이가 없네
초창기면 몰라도 알파고 나온지 10년이 다되가는데
아직도 버그가있네
지금 이현욱 프로 9점주고 대마엮으려고 오지게 돌려보고 있을거같으면 개추
바둑으로 승부하면 무조건 지지만 바둑을 버리면 이길수 있네요
인간은 전등을 교체할때 사다리를 놓고 올라가서 간단히 교체가 가능하지만 AI는 사다리를 놓구 위에 올라가서 전구를 잡는 로봇1대 사다리를 양쪽에서 들어올려서 돌려주는 로봇 2대 총 3대가 필요하다고 하죠
AI와 컴퓨터는 계산으로 절대 이길수 없지만 계산 이외의 것은 바보일뿐이죠
인간을 모방하고 인간의 감정까지도 복제하고 싶어하지만 불가능입니다 인간조차 사랑 연민 희생 이런 감정이 어떻게 생기는지 모르기 때문이죠
카타고를 만든 것도 사람이고 카타고의 오류를 발견하는 것도 사람이다. 카타고는 저절로 생겨나지 않았는데 그것을 만들거나 오류를 발견하는 사람은 어떻게 해서 생겨났을까?
사석을 만들고 서로 둘러쌓이는 형태로 만든다음 수상전, 프로가 원리를 바로 모르시나요. 김성룡 9단 유튜브 보세요
ai 나오기 전에 컴퓨터 바둑을 둘때 내가 저런식으로 이겼는데
알파고도 저런식으로 이기는군요
무조건 바둑판 전체를 생각하고 두면 저렇게 버그가 났는데.
기계의 한계가 드러났네요.
컴퓨터도 내적 갈등까지! 대단햐
40블록은 눈치도 "더럽게" 없네유
정말 심각해요.
알고리즘 타고 왔는데 기보로 보니까 더 웃기네요 ㅎㅎ
재밌네요. 멸망 직전까지도 확신하는게 ㅋ ai가 비효율적이라고 판단한게 엮여서 나비효과처럼 돌아오면 그땐 너무 매크로라 단시간엔 판단을 못하나봄
곧 학습하고 스스로 고쳐지겠죠?
프로들도 펠린처럼 할 수가 없나 보다. 프로연우도 그렇고 자신이 이기는 거 보여주면 좋겠구만 ㅋ 대형 대마를 만들면 버그가 있는건가
인간은 바둑으로 두번다시 ai를 못이기는 것처럼 생각되었는데 이 기술이 얼마나 한순간에 무너 질 수 있는지 잘 보여준 예가 될것같다. 더 신중하게 ai 를 준비해야 하겠네
카타고에서 '블록'이 정확히 어떤 의미 인지는 모르겠으나..아마도 같은 카타고에서 AI방법론은 모두 비슷할 것 같고, 다만 hidden layers의 갯수같은 hyperparameter가 좀 다른건가요? (바둑 인공지능은 잘 몰겠네요) 만약 그렇다면, 인공신경망이 너무 투 머치 deep 하다던가 해서 문제가 생긴거 아닌가 생각해봅니다...
학습 epoch에 대해 일정 성능을 보여주는 파라미터들을 블록이라합니다
이 사람이 세계 최고수군 --
미국 아마추어 기사가 AI바둑 이기는 방법을 알아 냈는데 우리나라 프로기사는 뭘 한겁니까?
거봐...난 컴퓨터 공학자도 아니지만...처음 이세돌과 바둑 둘때...인공지능...아직 지능은 아니고...초고성능 바둑 프로그램이라고 했다. 이제 정체가 들어 나잔아...!!!
그 동안 이게 제일 궁금했음. 의식이라는 게 없는 인공지능은 결국 알고리즘으로 바둑을 두는 건데 알고리즘의 허점만 찾는다면 허무하게 박살날 수도 있다고. 그런데 드디어 그런 게 발견됐군요.
프로 바둑 기사들 바둑을 통해 훈련한 인공지능은 오히려 18급 바둑의 논리를 못 쫓아가 망함.
은퇴한 알파고 리 나 알파고 제로와 한번 테스트해보면 좋겠네요.
결국 다시 패버리는 인간...
AI가 둘리가 없는 수를 두면 되는 느낌이네요
쉽게 버그가 고쳐 지지도 않을 가능성이 높은 것이 바둑 인공지능 스스로 수백만 판 학습으로 이루어낸 바둑 실력이여서 해보지 못한 부분에서 버그에서 스스로 해결 할 수가 없는 겁니다. 그렇다고 이제 와서 다시 사람 손으로 특정 부분 프로그램을 수정 한다면 그로 인해 다른 부분에서 미세하게 헛짓을 하는 버그를 양상 할 수 있습니다. 개발자가 프로그램 수정 후 다시 모든 경우를 다 검토 할 수도 없습니다. 그럼 또 다른 치명적인 버그가 있는 거고 충분히 또 버그는 찾아 낼 수 있는 겁니다. 그래서 이번 이 사건은 인공지능 관련자 입장에서는 단순한 버그 사건이 아닌 겁니다
이번 이 사건은 단순 한 게 아닙니다. 특정 분야 전문적으로 아주 뛰어난 인공지능인데 사소한 버그 쯤 고치면 되는 거지하고 별 큰 이슈 안되는 거 같은데요 다시 버그 고쳐도 또 다른 버그가 꼭 나오는 겁니다. 이건 인공지능 관련 종사자들에게는 엄청난 큰 사건입니다. 바둑 인공지능을 떠나 모든 인공지능이 치명적인 버그가 있고 그걸 찾을 수 있다는 건 많은 개발자에게 크게 우려 했던 일입니다. 그게 실제 일어났고 일대 큰 변혁이 될 사건입니다.
1. 아무리 뛰어난 인공지능이라도 치명적인 버그가 꼭 있다.
2. 그 버그를 어떻게 든 다 찾아 날 수 있다.
3. 플로우 패턴이 같다면 그 버그는 그대로 계속 나온다.
4. 잘못된 버그를 고쳐도 또 다른 버그는 생성되고 반드시 다시 존재한다.
이건 지금 개발 중인 모든 인공지능에 다 적용되는 경우 입니다. 이 사건으로 지금 인공지능 산업 전체가 전면 다시 재고되고 인공지능 활용 시간이 뒤로 밀리는 일대 큰 사건입니다. 나비효과로 많은 미래 산업에 큰 파장을 줄겁니다. 앞으로 모든 인공지능은 치명적인 버그로 사고를 낼 수 있고 또 그 버그를 충분히 찾아낼 수도 있으며 나쁜 의도로도 충분히 쓰일 수도 있는 겁니다.
@@택-w7g 알고 있어요 나도 개발자임 프로그래머이고..그런데 바둑 인공지능 같은 전문 인공지능에서 이렇게 버그 나와 제대로 뻘 짓 하는 거 본 적 있어요? 이 정도는 처음인데 무슨 띨 소리하고 있나요. 이 문제가 개발자들 안에서 대두 되고 있고 실제 여러 문제 있을 수 있다는 게 계속 나오고 있는데..그저 상식적으로 인지하고 있는 거와 차원이 다른 겁니다. 알파고는 호선으로 인간이 절대 깰 수 없다고 단언까지 한 바둑 인공지능입니다. 그런데 같은 인공지능 라인인 카타고를 아주 바보로 만들면서 깬 겁니다. 몇백만 판 인공지능끼리 싸우게 해 알고리즘 허점 버그를 제대로 알아 내고 다시 인간이 학습으로 인공지능을 뻘짓 하게 만들면서 깬 건 처음입니다. 이번에 딥러닝 기반으로 하는 인공지능 알고리즘 심각한 허점을 제대로 외부에 노출 시킨 겁니다. 앞으로 많은 인공지능에 대해 여러 버그 도전 시도 있을 겁니다. 좀 제대로 알고 말하길
ㅋㅋㅋㅋㅋㅋ인간 자체가 버그인데.....ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ너 자신이 버그인지 모르고...한심한놈
@@택-w7g 가능성 있는 글을 쇼하지말라니...
현직 개발자를 모두 대변하는 엄청난 분이시네요 ㅋㅋㅋㅋㅋ
큰사건은 아니죠.. 인공지능 ai는 알고리즘을 수집해서 연산하는건데 알고리즘은 무한할수 없으니 알 수 없는 상황이 나오는거죠. 버그가 아니에요
애초에 이 문제는 인공지능 개발자들은 다 알고있는 내용이에요. 예를 들면 챗gpt에 알수 없는 단어를 넣는다고 제대로 된 대답을 못하는 것과 똑같은 상황이 저 바둑판에 나타나는겁니다
사범님 표현이 재미나네요 가계는 뭐라해도 기계예요 3점? 저런놈한태 음 ~ 존심상하긴하겠네요
노력안하니 인간이 지죠. 노략하니 이렇게 기술적으로 이길 수있죠
이런 버그가 있기에 인공지능이 불완전하다(o) : 애초에 인간 자체가 불완전한데, 인간이 만든 피조물이야 불완전한 것이 당연한 것임. 따라서 인공지능이 완벽하다고 생각했다면 그렇게 생각한 것이 애초부터 잘못된 생각.
이런 버그가 있기에 인공지능을 쓰면 안 된다(x) : 인간도 실수를 한다는 점을 간과한 주장. 엄밀히 말하면 인공지능의 버그란, 본질적으로 인간의 (설계상) 실수에 불과함.
인공지능이 (가령 바둑으로) 인간을 이겼다(x) : 인공지능이라는 것 자체가 인간의 도구에 불과함. 따라서 가령 알파고가 이세돌을 이긴 사건은, 정확히 말해 구글딥마인드라는 법인(혹은 구글 공학자 여러명)이 이세돌이라는 자연인을 이긴 사건일 따름.
게임버그 찾고 이용하는건 한국인이 최고인데 AI도 별거 없는듯
세돌이형 돌아와
누누히 말하지만 우리가 지금 말하는 인공지능은 공상영화에 나오눈 인공지능과는 아직 거리가 멀다. 오히려 발전된 검색엔진에 가깝다. 인간은 그렇게 많지 않은 학습한 경험에 기반해 전혀 새로운 상황에도 생각이라는 것을 통해 대처하는 능력이 있다. (요즘) 인공지능은 그냥 자신이 알고 있는 경험 중에 가장 유사한 것을 찾을 뿐이다. 인공지능을 하면 할수록 인간은 하나님의 걸작이라는 것 밖에는 설명할 수 있는 길이 없다는 것을 알게된다.
이게 기본이 되는 학습데이터에 떡수는 없으니깐 이렇게 맥없이 무너지는 건지... 아니면 댓글 말처럼 수상전을 계산하는 범위가 정해져 있어서 발생하는 문제인지 궁금하네용 버그성 플레이도 9x9 바둑 4개로 나눠서 접근한다 던데 이것의 조합으로 배웠다는 얘긴가....? 4는 뭣하니 4+1로 했나 ㅋㅋㅋ 분할 정복 비슷한 건가... 그러면 답 없을 수... 도??
10:30 바둑초보인데 우변에 백한점 잡으면 되는거 아닌가요?
아니구나 ㅋㅋㅋ
알파고는 인간이 생각하듯이 돌의 놓여진 형태를 보고 사활을 판단하는 것이 아닙니다. 이길 확률이 높아 보이는 곳들에 모두 두어 보아서, 승률이 가장 높은 점에 두는 것입니다. 문제는 바둑의 형태를 보고 어떤 위치가 승률이 높은 지를 어떻게 알 수 있느냐 하는 점인데, 여기에 CNN이라고 하는 인공지능을 사용하게 됩니다. CNN은 이미지에 대해서 분류를 잘 하는 기능인데, 처음 보는 형태라 할 지라도, 그와 유사한 형태에서의 승률을 기반으로 두어지지 않은 위치에 대해서 점수를 부여하는 것입니다. 그래서 이런 방식으로는 사람을 이기기 어려울 것이라 생각한 사람들이 많았는데, 의외로 이러한 접근 방식으로 프로까지 이기게 되는 상황이 된 것입니다. 방송을 보면 자꾸 알파고가 인간처럼 수 읽기를 하는 것처럼 해설을 해서 답답한 경우가 많은데, 수읽기를 하는 것이 아니라, 현재 바둑 형태와 유사한 형태에서 확률이 높은 곳 몇 곳을 찾아서 두고, 그 형태에서 다시 확률이 높은 곳을 찾아서 두고 이렇게 계속 두어서 끝까지 두어 나갈때 승률이 높은 지점을 찾아서 두는 것 뿐입니다. 즉 결국 알파고는 근본적으로는 모두 두어보는 방식입니다. 물론 모든 곳을 둘수 있다면 누구나 컴퓨터가 이기는 것은 당연할 것이라 여기겠죠. 다만, 실제로 모든 곳을 두는 것이 아니고, 확률이 높아 보이는 곳을 모두 두어보는 것이고, 확률이 높아 보이는 곳은, 기존에 두어진 바둑과 유사한 형태에서 승률이 높았던 값들을 CNN 분류를 통해서 구하는 것입니다. 따라서, 전혀 두어지지 않을 형태의 바둑 모양이 나온다면, 그 형태에서 계산 되어지는 빈 곳의 확률정보는 엉터리가 될 수 있고, 그런 식으로 계속 확률이 높은 곳을 끝까지 두게 된다면, 계속 엉뚱한 결과를 얻게 될 수 있는 것입니다. 알파고, 또는 요즘 유행하는 chatGPT등이 전혀 논리적인 사고를 하지 않고, 확률에 의한 분류를 기반으로 인간을 이기는 바둑을 두기도 하고, 마치 인간처럼 대화를 하지만, 인간과 같은 논리적이나 추상적인 사고에 기반하지 않기때문에 전혀 엉뚱한 결과도 나올 수 있습니다. 앞으로 이런 AI와 인간이 공존해야 하는 상황에서 인간은 좀 더 AI에 대해서 생각을 많이 해야 합니다. 알파고가 바둑계의 흐름에 거대한 영향을 주었듯이, chatGPT는 아마도 인간의 삶의 방식을 바꾸어 놓을 것입니다. 아무런 바둑에 대한 논리적 사고나 추상적인 이해도 없이 프로바둑을 이기듯이, 아무런 논리적 사고나, 추상적인 생각도 할 줄 모르는 컴퓨터가, 소프트에어 개발뿐만 아니라 인간이 하는 거의 모든 업무를 대신할 수 있게 되어 가는 지금, 일을 통해서 자신의 가치를 부여했던 흐름에서, 일은 컴퓨터나 로봇같은 기계에게 넘기고, 일보다는 다른 삶의 가치를 추구해야하는 세상을 준비해야 합니다.
신경망 없이 두어 보는것만 구현한게 2010년대 초의 젠을 비롯한 몬테카를로 트리 검색 기법을 사용한 인공지능입니다. 인간 프로는 못 이겼지만 인터넷바둑 9단을 갈 수 있고 프로들에게 5점으로 박빙 내지 앞서는 승부를 할 수 있었죠.
결론은 인공지능은 자연지능과 질적으로 다르다....
@@OjingeoChaemuchim 네... 저도 그 당시 몬테카를로 방식의 바둑 프로그램과 바둑을 둔 적이 있었는데, 그 실력에 충격을 받았았습니다. 아무런 바둑에 대한 학습이나 사고도 없이 아무 곳이나 random 하게 몇 군대를 선택해서 끝까지 두는 방식으로 승률이 높은 곳에 두는 것 만으로도, 아마추어 단 실력이 될 수 있는 지 참으로 의문이었습니다. 물론 그래도 이런 방식으로 절대 프로는 이길 수 없을 것이라 생각하고 관심을 끄고 살았는데, random하게 선택하던 것을 승률이 높은 곳으로 바꾸면서 인간을 이기게 될 줄은 정말 몰랐습니다.
저도 이 문제 관심이 좀 있는데, 사실 이게 버그가 아닌 거죠?
근본적인 결함인 거죠?
왜냐하면 카타고는 스스로 사고할 수 있는 게 아니라 인간이 이미 선택한 데이터들을 모방하는 것에 불과하니까 데이터가 없는 낯선 상황에서는 제대로 된 답이 나오지 않는 것 같아요.
루만계 학자가 인공지능을 연구한 뒤 이건 지능이 아니라 소통의 한 방식이라고 했던 책이 기억나네요.
아주 좋은 도구일 뿐이지 이게 우리 미래를 말해주거나 선택을 대신할 순 없다는 걸 다시 한번 알려준 일화 같습니다.
저도 이 문제 관심이 좀 있는데, 사실 이게 버그가 아닌 거죠?
근본적인 결함인 거죠?
왜냐하면 카타고는 스스로 사고할 수 있는 게 아니라 인간이 이미 선택한 데이터들을 모방하는 것에 불과하니까 데이터가 없는 낯선 상황에서는 제대로 된 답이 나오지 않는 것 같아요.
루만계 학자가 인공지능을 연구한 뒤 이건 지능이 아니라 소통의 한 방식이라고 했던 책이 기억나네요.
아주 좋은 도구일 뿐이지 이게 우리 미래를 말해주거나 선택을 대신할 순 없다는 걸 다시 한번 알려준 일화 같습니다.
개발자들: 오오오 흥미롭다!!
내생각에도 프로바득만 입력되어있지
17급이 두면 버그로 미칠듯
17급은 돌이 죽어도 계속 포위하고 조여오니깐
AI눈에는 공배만 둔다고 비웃고 있을듯 ㅎ
나도 게임앱에서 일반적으로 인공지능에게 이길수 없었는데 변칙적인 이상한수를 두니까 내가 여러번 이길수있었는데
저런 방법은 실제 대회때는 아무런 소용도 없나요?
카타고의 버그일뿐 다른 AI도 똑같은 것은 아닌 것같다
절예도일본기사한테비슷한방법으로돌아가셨어요
절예 카타고 알파고계열 바둑ai 전부 돌아가심 ㅋㅋ
지금은 고쳣나요
문제는 알파고를 이겨도 프로에게는 못이긴다는 것이죠. ㅎ
강강수월래 전법이네요
대단한 나랑ㅣㅂ니다
인간 관점에서보면 알파고는 실패작. 버그덩어리임. . 미끼를 던지고 아무생각없이 크게 둘러싸기만 하면 알파고 대마가 사망함. 프로그램 수정하려면 아예 다시 짜야함.
바둑 2~3급 만 되어도 그 누가 대적 인공지능 상관없이 9점 접은 바둑 안됩니다
9점으로도 프로 초단은 털리는 수준의 인공이었습니다.
저걸 어떻게 찾았데......??????????????????
그게 더 신기 하네요.... ㅡ,,ㅡ
강화학습 알고리즘의 약점을 파고들어 이겼다고 봅니다.
알파고나 카타고나 결국 강화학습 알고리즘을 기반으로 동작하는데, 강화학습의 가장 취약점은 Long-Term Planning에 약하다 입니다.
단기적으로는 이익이 아니라 손해이지만 장기적으로 이익인 결정을 강화학습은 잘하지 못합니다.
바둑은 내부적으로 이를 보완하는 알고리즘이 있기는 하지만,
영상에 나온 것처럼 정말로 대놓고 사람이 악수라고 생각할 만할 걸 둬버리면,
학습 데이터에 없는 걸 하기 때문에 오히려 못 합니다.
강화학습에서는 상대방도 어느 정도 두는 상대를 상대로 학습을 하기 때문에 저렇게 악수만 둬버리는 상황은 이해를 하지 못 합니다.
강화학습의 근본적인 문제점이라서 고치기 어려울 것이라 봅니다.
이거 이세돌 알파고전에서 나왔으면 구글주식 폭망했겠네요
이건 백이 만방 진 바둑을 그냥 꼬장으로 이기네
기계에 세상을 맡기면 않된단 신의경고랄가!
인공지능 무인자동차 오류로 대형사고 많이날듯
사람바둑에서 저리두면 꼬장부린다고 할텐데 중요한 건 꺽이지않는 마음인건가? ㅋㅋㅋ
업데이트로 버그수정하면 고쳐질거같은데 또 버그찾는ai로 버그찾으면 또 업데이트하고... 계속 뫼비우스의띠가 반복될수도 있겠네요.
지금 ai는 알고리즘이 아닌 확룔이론을 이용하기 때문에 오류가 많을 수 밖에 없습니다. 확률이라서 100%는 없으니까 위험합니다. 알고리즘은 100%를 지향하지만 인간능력의 한계로 인해 목표달성이 요원한데 ai는 100%는 되지 않지만 쉽게 90%까지 도달하니 좋아보이지만 절대로 확률 ai는 100%에 도달할 수 없습니다.. 이게 ai의 한계입니다. 다음 스텝의 ai 알고리즘을 기대해 봅니다.
역시 바둑최강국 미국이네요
AI는 인간과 달라서 자기가 이겼다 싶으면 잡았다싶은 돌 쪽은 신경을 안쓰는 단점이 있어요
그래서 그 상황에서 최고의수를 두는게 기본생각인데 그게 아직 고쳐야할 버그일종 아닐까 싶네요 ㅋ
그런데 이번 영상 바둑은 너무 심하다 버그라 해도;;;
근데 왜 카타고만 올라올까요?
절예나 다른 프로그램도 보고 싶네요
카타고만의 버그(?)인지 궁금합니다
릴라제로와의 바둑도 올려보겠습니다^^
절예는 없는 버그라 그럼
@@숭배하던사람태양을 절예도 졌어요
@@빈삼각-f8f 링크좀요
@@빈삼각-f8f 몽사부 그 국뽕 유튜브 말하는거면 2점 깔고 둔거니 그건 가져오지마셈 2점깔고는 신진서도 ai이겼음
설명만 바르게 전달하시면 영상 먾이 나오겠네요. 귀에 속들어오는 목소리네요.
ai는 사실 바둑이 뭔지 전혀 모르는거임
그냥 이기는 확률의 수치로만 수를 두는 것일 뿐
40블록은 한수 찾아보는데 더 오래걸려서 눈치채기까지 20블록보다 오래걸리지 않나 싶네요
AI까 패 계산을 정확하게 못하네요
발견한건 대단하다고 생각하지만 이게 의미가 있는건지 잘 모르겠네요. ㅎ
프로들의 바둑만 학습하고 동네바둑을 학습하지 않아서 약점이 생긴것 같네요. ㅎㅎㅎ
바둑 전용 컴퓨터로 오목을 두면 고장 나지 ㅋㅋㅋ
카티고가 저러고 있으면 알파고는 뭐냐 ㅋㅋㅋㅋ😂
심각하네요 심각해요