전체 글 606

우리가 빛의 속도로 갈 수 없다면

읽게 된 계기 지식을 얻기 위한 책들을 쭉 읽어오다가 최근에 베르나르 베르베르의 심판을 읽었을 때 느껴졌던 기분이 안 잊혀졌다. 투자나 자기 개발에 관한 책들을 읽다가 소설을 읽으니, 글이 묘사하는 장면을 제대로 상상하지 못하더라. 너무 머리를 한 방향으로만 쓰니 다른 방면의 머리가 죽는구나 싶었다. 다행히 책을 조금 더 읽다보니 조금씩 장면을 상상하는 능력이 돌아오는 것 같았지만 그래도 다른 글들도 종종 읽어줘야 겠구나 싶었다. 더불어 소설을 읽을 때 머리가 쉰다는 느낌이 강하게 들었다. 마치 잠을 자려고 이런 저런 상상이나 하면서 누워있을 때 드는 느낌을 소설을 보면서 느낄 수 있었다. 그래서 한 주가 너무 고되어서 더 이상 머리를 쓰고 싶지 않을 때 소설을 찾게 되었다. 많은 소설 중 김초엽 작가님..

Book/Fun 2023.02.20

[Diffusion] High-Resolution Image Synthesis with Latent Diffusion Models (a.k.a Stable Diffusion)

High-Resolution Image Synthesis with Latent Diffusion Models 내 맘대로 Introduction diffusion 논문의 인기를 극단적으로 끌어올리는데 기여한 또 다른 기념비적 논문 중 하나다. diffusion model이 갖고 있는 문제를 해결하는 것은 contribution으로 주장하는 논문이다. diffusion model은 이미 기존 generative model의 단점을 상당수 개선했지만 여전히 문제점은 갖고 있다고 한다. 엄청나게 오래 걸리는 학습 시간 긴 inference 시간 2023.02.17 - [Reading/Paper] - [Diffusion] Denoising Diffusion Probabilistic Models 의 result 부..

Paper/Generation 2023.02.17

[Diffusion] Denoising Diffusion Probabilistic Models

Denoising Diffusion Probabilistic Models 내 맘대로 Introduction 이 논문은 요새 뜨거운 감자인 diffusion model을 처음으로 알렸다고 해도 과언이 아닐 정도로 기념비적인 논문이다. 이전에 2015년 diffusion model 개념을 처음 소개한 논문은 따로 있지만 실제 GAN에 대적하는 성능을 보인다고 주장하여 그 우수성을 입증한 것은 이 논문이기 때문에 더 유명하다. GAN처럼 likely-hood method를 사용하는 generative model의 일종이지만 기존에 GAN이 갖고 있는 mode collapse, 학습 불안정성, 다양성 부족과 같은 문제를 풀 수 있는 새로운 프레임워크인 diffusion model을 상세히 소개한다. 이 글은 d..

Paper/Generation 2023.02.17

미래의 부를 위한 투자 공부

읽게 된 계기 또 다른 출퇴근 책이었다. 요즘 다시 무작위로 책을 읽어보자는 주의로 돌아서서 잡히는대로 읽게 되었다. 맨 처음엔 표지 밑에 기록된 NFT, 메타버스란 단어를 보지 못해서 일반적인 주식, 채권, 부동산 등을 언급하는 책인 줄 알았으나 읽는 중간에 NFT, 메타버스가 주 키워드라는 것을 알게 되었다. 여태까지 읽었던 NFT, 메타버스 관련 책들은 전부 와닿지 않는 책 뿐들이어서 이번엔 다를까 하는 기대로 중간에 멈추지 않고 끝까지 읽게 되었다. 짧은 평 사례가 많아서 좋았다. 역사, 문학, 미술, 음악, 영화, 게임 등 문화 자체를 먼저 알아야 투자를 할 수 있다는 이야기를 꺼내며 각 분야마다 투자와 연관 지어 생각할 수 있는 예시들을 수두룩하게 소개해준다. 어떻게 보면 얕은 수준이라고 하는..

Book/Investment 2023.02.15

부자 아빠 가난한 아빠

읽게 된 계기 계기가 있어서 읽었다고 말하기 민망할 정도로 투자계의 고전과도 같은 책이라 필독서가 아닐까 싶다. 처음 생각하기엔 너무 과거의 책이라 현재와 그래도 어느정도 차이가 있지 않을까라는 생각 때문에 잠시 미루어 두었던 책인데 난잡하게 얕은 이야기만 풀어내는 요즘 책들을 접하다가 보니 진득한 책을 보고 싶어졌다. 마침 20주년 특별 기념판이 서점이 즐비하게 늘어서 있길래 한 권 집어들었다. 짧은 평 어린 시절 이야기로 시작하는 책이어서 스토리텔링처럼 편하게 읽혔다. 돈에 대한 관점을 바꾸어야 한다는 메세지를 자신의 어린 시절 이야기를 털어놓는 식으로 전하는 것이 어려운 이야기를 가볍게 전달하는 것 같아 좋았다. 후반부에 10가지 조언을 담아 본론을 이야기하기 전까지는 술술 읽히는 책이라고 할 수 ..

Book/Investment 2023.02.15

[Linear algebra] 33-34. Left and right inverses; pseudoinverse

*34강은 시험 해설 강의로 생략한다. Lecture https://ocw.mit.edu/courses/18-06-linear-algebra-spring-2010/resources/lecture-33-left-and-right-inverses-pseudoinverse/ Lecture 33: Left and right inverses; pseudoinverse | Linear Algebra | Mathematics | MIT OpenCourseWare MIT OpenCourseWare is a web based publication of virtually all MIT course content. OCW is open and available to the world and is a permanent MIT..

[Linear algebra] 31-32. Change of basis; image compression

*32강은 퀴즈 해설 강의로 생략함. Lecture https://ocw.mit.edu/courses/18-06-linear-algebra-spring-2010/resources/lecture-31-change-of-basis-image-compression/ Lecture 31: Change of basis; image compression | Linear Algebra | Mathematics | MIT OpenCourseWare MIT OpenCourseWare is a web based publication of virtually all MIT course content. OCW is open and available to the world and is a permanent MIT activity..

[Linear algebra] 30. Linear transformations and their matrices

Lecture https://ocw.mit.edu/courses/18-06-linear-algebra-spring-2010/resources/lecture-30-linear-transformations-and-their-matrices/ Lecture 30: Linear transformations and their matrices | Linear Algebra | Mathematics | MIT OpenCourseWare MIT OpenCourseWare is a web based publication of virtually all MIT course content. OCW is open and available to the world and is a permanent MIT activity ocw.m..

관계를 읽는 시간

읽게 된 계기 역시나 출퇴근 길에 새로 들을 오디오북을 찾던 중 밀리의 서재 상위 랭크에 있어 골랐다. 그냥 고른 것만은 아니고 평소 심리학, 특히 관계에 작용하는 심리학에 대한 궁금증이 있었다. 숙명여대에서 교육심리학을 계절학기로 수강할 당시 신생아 시기부터 유아기를 보낼 때 어떤 애착 유형을 형성하는지에 따라 성인이 되었을 때 성격이 좌지우지 된다는 내용을 굉장히 흥미롭게 공부했던 기억이 있다. 이후 다양한 사람을 만날 때 주의를 기울여서 생각해보면 정말 공부했던 내용과 일치하는 사람들이 많아 한 번 쯤은 다시 보고 싶은 것이 애착에 관한 심리학이었다. 짧은 평 기대했던 내용의 책이어서 만족스러웠다. 나는 안정형, 불안정형, 회피형과 같은 분류는 이미 알고 있었기에 다른 유형이 있는지 궁금했었다. 책..

Book/Mind 2023.02.09

RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use CUDA with multiprocessing, you must use the 'spawn' start method

torch로 학습 코드 작성 중에 제목 혹은 위와 같은 에러가 났다. 오류명에 적혀있듯이, multiprocessing을 사용하고자 하는 과정에 발생하는 에러인데 대놓고 torch.multiprocessing을 사용한 적이 없음에도 오류가 났다. 간단히 찾아보니 대부분 torch DataLoader 클래스 사용 시 num_workers를 지정해서 데이터를 불러올 때 그런다고 한다. 내부적으로 torch.multiprocessing을 사용하기 때문인데 해결 방법은 다음과 같다. torch.multiprocessing.set_start_method('spawn') 코드 도입부에 위와 같은 설정을 선언해주면 된다. 간단하다.