사전적인 정의/애자일의 간단한 역사

. 군사 과제 . Waterfall 형식 (불확실성이 작음)

. 90년대 넓어지면서 일반 대중을 위한 소프트웨어 (불확실성이 커짐)

  새로운 소프트웨어 개발 방식. 너무 계획 중심이 아닌, 해보면서 고쳐 나가는 방식.

  경량방법론 주의자 Lightweight methodologist

. 2001년도 만나서 애자일 선언문(Agile Manifesto)

  부터 애자일이 특별한 의미를 가지게 .

 

애자일의 에센서(김창준님의 정리, 실재적 정의)

. 협력(collaboration): 자기 업무 영역을 넘어서의 협력. 불확실성이 높을 때에는 협력을 잘해야 .

  협력을 하면 좋은 일은 곱하기, 나쁜 일은 나누기가 .

  터널 비전(Tunneled vision) ==> 다른 사람들과의 협력이 필요함

. 피드백(feedback)

  내부적인 : 

  외부적인 것을 포함: 내가 만든 것을 다른 사람들이 만들고 의견을 받을 있음.

  내가 것을 보고 배우는 .

  일을 잘하는 사람들의 특징은 피드백 시킹 (Feedback seeking) 능력이 좋다.

 

. 학습

  동양문화 공부=독서라고 정형화해서 생각

  불확실성이 작업을 , 얻어내는

 

참고

https://www.podbbang.com/channels/14757/episodes/22365173

다니엘 핑크의 "후회의 재발견", 원제는 "Power of Regret"[1]. 신철님 진원님께서 추천해 주셨던 것으로 기억하여 바로 주문하여 책을 받아서, Reading less를 시도해 보았다.

우리는 우리 의지대로 될 것이라는 "자유 의지"와 모든 일에는 이유가 있다는 "환경"의 교차점에 살고 있다고 저자는 이야기 한다. 여기서 불행이 발생했을 때, 거기서 부터 구원의 시퀀스(redemption sequence)로 가는지 아니면 다른 방향으로 오염 시퀀스(contamination sequence)가는지 이 두 가지 경우가 서로 우위를 차지하기 위해서 경합을 벌인다고 한다. 마치 디즈니의 인사이드 아웃에서 예전의 슬픈 기억도 가족들과 이겨내는 시퀀스가 연결될 것인지 아니면 거기에 머무를 것인지 바뀌기도 하는 것도 이와 관련되어 보인다.

저자는 또한, 스포츠에서 2위 선수의 내가 조금 더 "했더라면" 1위 했을 텐데라는 입장과 3위 선수가 "적어도" 4위를 하지 않아 메달을 땄다라는 것에서 누가 더 만족하고 있는가에 대한 차이도 이야기 한다. 그러면서, 감정을 바라보는 두 관점에 대해서 이야기 하는데, "무시해야 할 것"과 "중요한 것"이라는 입장에 대해서도 설명한다. 무시할 것이라는 입장은 감정을 묻어 두면 결국 직면해야 할 순간을 유예하는 것 뿐이라고 이야기 한다. 또한, "중요한 것"이라는 것은 감정이 우리 존재의 본질이라고 생각하고 "항상 자신의 감정을 믿어라"라고 이야기 한다. 나 예전에는 전자의 입장이었지만 후자의 입장을 가지고 있다.

저자는 책에서 위에 이야기 한 두 방법 이외에 새로운 접근 방법을 제안 한다. 그 감정에 대해서 "생각"을 보태어 "행동"으로 보다 나은 향샹된 성과와 보다 깊은 의미를 찾도록 하는 다른 접근 방법을 제시한다. 이것을 후회 최적화 프레임워크라고 부르고 있다.

 

참고

[1] 다니엘 핑크, "후회의 재발견 - 더 나은 나를 만드는, 가장 불쾌한 감정의 힘에 대하여", 김명철 (옮긴이) 한국경제신문

나는 ChatGPT 사용자로서 내가 담당하는 제품/기능에 대해서 물어보기도 하고 테트리스 프로그램을 짜달라는 것과 같은 간단한 실험을 해보았다. 얼마전 페친과 뉴스피드에서 ChatGPT 대해 의견 나눔이 있었다. 스탠스의 차이가 댓글에 대댓글을 달며 한참을 이야기를 나눴다. 여기서는 표절과 사실 왜곡에 대한 조금 정리하여 적어 본다. 우선, 나는 ChatGPT 세상을 바꿀 변곡점이라 믿고 있고, 나도 내가 이를 사용하길 바라고 있다는 것을 무엇 보다도 먼저 이야기 한다.

 

아일랜드에서 학위를 , 대학원 연구원(Postgrad Researcher) 자격이었다. 그래서, 과정 수업은 거의 없고 연구 위주로 진행이 되었다. 그래도, 학교에서 가르쳐 몇가지 하나가 표절(Plagiarism)이었다. 시작하자 마자 2시간이었난지 반나절인지 영어 수업이라며 가르쳤다. 한마디로 다른 사람이 저작물에 있는 내용을 논문에 적으려면 참고 문헌(reference) 반드시 표기하라는 것이다. 또한, 글을 그대로 적지 말고 말로 바꾸어서 적으라고 했다. 지도교수님도 부분을 여러 강조해서 이야기 했다.

 

이런 측면에서 ChatGPT 빠르게 받아 들이는 학생들을 가르쳐야 하는 학교나 연구를 수행하는 학계가 먼저 대응하고 있는 것이 보인다. 세계 의학 편집자 협회(WAME)ChatGPT와 챗봇에 대한 네 가지 권장사항을 발표했다[1]. 여러 가지가 있지만, 우선 눈에 띄는 것은 1) "챗봇은 저자가 될 수 없다" 2) "챗봇이 생성한 자료를 포함한 모든 출처에 대한 책임은 저자에게 있다"라는 부분이다. , 우리가 ChatGPT 생성한 자료가 아무리 좋은 내용을 포함하고 있다고 하더라도, 내가 결과를 저작물에 쓰려면 내용에 대한 출처를 찾아야 하는 수고가 필요하다는 것이다.

 

ChatGPT 대한 여러 이야기를 보다고 알게 ChatGPT 특징 다른 하나가 사실 왜곡(Hallucination)이다. 용어를 "적당히 생성" 혹은 "환각적 지식"이라고 번역하시는 분도 보았다. ChatGPT 생성하는 자료의 사실 왜곡율이 15~20% 정도 된다고 한다[2]. 물론 부분에 대해서 못되었다고 지적하면서 사용하는 경우도 많이 보고 있다. 또한, ChatGPT 다음 버전들과 비슷한 제품들이 나올 경우 발생할 있는 오염에 대해서도 이야기하는 글도 나오고 있다[3]. 물론, 부분에 대한 고민은 연구자들의 몫일게다. 우리는 ChatGPT가 틀릴 수도 있다는 것을 알고 꼭 다시 확인하는 것이 필요하다고 생각한다.

 

그렇다면, 우리는 ChatGPT 쓰면 안되는 것인가? 나는 아니라고 생각한다. 도리어 어떻게 해야 활용할 것인가? 그리고 무엇이 개선되어야 하는가를 고민하는 것이 중요하다고 생각한다. 사용하기 위해서 고민하는 사람들이 프람프트 엔지니어링[4][5] 이야기 하고 있다. 부분은 나도 탐색이 필요한 부분이다.

 

그리고, 근본적인 질문으로 우리는 기계를 믿을 것인가? 사람을 믿을 것인가? 고민해야 한다고 생각한다. 질문은 결국 선택의 문제가 것이다. 나는 개발자/엔지니어로서 기계는 실수하지 않는 것을 알고 있다. 하지만, 또한 잊지 않는 것이 있다. 바로, 기계를 만든 것은 사람이라는 것이다. 기계에 문제가 있다면 의도하였던 의도하지 않았던 많은 부분 사람이 관여한 것이라는 , 그리고 기계를 활용하거나 악용하는 것도 사람이라는 것이다. 그래서, 나는 그리고 우리는 것을 알고 판단하고 선택해야 것이라고 믿는다.

 

 

참고

[1] http://www.docdocdoc.co.kr/news/articleView.html?idxno=3002315

[2] https://www.datanami.com/2023/01/17/hallucinations-plagiarism-and-chatgpt/

[3] https://twitter.com/191cf54fad/status/1624953860531060736?s=46&t=-CjiWmVTqVXP06ygy0eXwA&fbclid=IwAR11lbIsRfs3yKpPncUvT3mWxlEy1QObCOJRPberGb9UgVXvtY6Ck3j6pJo

[4]https://github.com/dair-ai/Prompt-Engineering-Guide?fbclid=IwAR34DHEs5d3bZc33gP-sCnrLgm5IDxKP0BYhyMnSQH1z7C93rQY-9_qQ7KU&mibextid=Zxz2cZ

[5]https://learnprompting.org/docs/intro

 

+ Recent posts