목록전체 글 (49)
TechY
kocw 강의 : 이화여자대학교 반효경 교수님의 운영 체제 강의,3강 System Structure & Program Execution 2 cpu는 하나의 instruction 을 실행하고 다음 instruction을 실행하기 전에, interrupt 가 들어온 것이 있는지 확인한다.interrupt vector : interrupt의 번호와 주소를 갖고 있다. 번호는 어떤 hw controller인지, (interrupt의 주체) 주소는 memory 상의 주소 (interrupt의 대상)trap 에는 두 가지 종류가 있다.Exception : 프로그램이 오류를 범한 경우 (ex. zero division)System Call : 프로그램이 커널 함수를 호출하는 경우 synchronous I/O I/O ..
kocw 강의 : 이화여자대학교 반효경 교수님의 운영 체제 강의, 2강 System Structure & Program Execution 1 본 챕터까지는 본격적으로 os 를 얘기하기 앞서 computer HW를 얘기한다고 한다.memory : cpu 의 작업 공간, cpu는 매 clock cycle 마다 메모리에서 기계어를 하나씩 읽어서 실행한다.io device : io device를 전담하는 작업 cpu 같은 것들이 붙어있게 된다. 그걸 device controller 라고 함"disk 의 Head를 어떻게 하겠다"는 cpu 가 아니라 disk 의 device controller 가 함device controller 는 io device를 관리하는 작은 cpudevice controller 로 그들..
kocw 강의 : 이화여자대학교 반효경 교수님의 운영 체제 강의, 1강 Introduction to Operating Systems OSos 는 hw 바로 위에 있는 sw, 다른 모든 sw를 hw 와 연결좁은 의미 : kernel -> 메모리 상주하는 부분넓은 의미 : kernel + other utilitiesRolecomputer system 의 자원을 효율적으로 관리optimal performance given resourcessw 자원도 관리해야 함 (process, file, msg etc)사용자가 computer 를 편리하게 사용하게 해줌fair resource allocation여러 program이 동시에 돌 수 있게cpu 가 빠른 속도로 번갈아 실행memory 공간에 적절히 분배Classi..
최근에 openai 의 structured output 지원이 공개되었는데 기존에 지원하던 json mode보다 더 강력한 구조화 출력이 지원된다.공개 문서를 읽어보니 structured output 을 만든 방법을 간단하게 써줬길래 잊어버리고 싶지 않아 간단하게 정리해본다. 1. 학습을 많이 시킴- gpt-4o-2024-08-06 모델이 structured output 을 지원하는데, 복잡한 스키마를 이해하고 이를 기반으로 출력을 생성하게끔 학습을 많이 시켰다고 한다.- 하지만 LLM은 태생적으로 non-deterministic 하기에 deterministic 한 engineering-based approach 를 추가로 사용했다. 2. Constrained decoding- 우선 constrained..
배우는 중이라 틀린 정보가 있을 수 있는데, 업데이트되는 공부 내용이 있으면 계속 고치겠습니다. 교정해주시면 감사하겠습니다..! (_ _)concurrency 는 parallelism 과 asyncronous programming 의 pre-conditionparallelism과 asyncronous programming는 concurrency를 달성하는 수단parallelism 에 있는 multi-threading 과 multi-processing 은 os-level 에서 concurrency를 구현async개념들 코루틴(Coroutine): async로 정의된 비동기 함수로, 이벤트 루프가 관리하는 기본 작업 단위태스크(Task): 코루틴을 래핑한 객체로, 이벤트 루프에 의해 스케줄링되고 실행Futu..
참조- chatgpt- https://gmlwjd9405.github.io/2018/09/14/process-vs-thread.html- https://ivdevlog.tistory.com/3- https://hhj6212.github.io/programming/python/2021/04/18/python-multi.html- https://velog.io/@wonhee010/%EB%8F%99%EA%B8%B0vs%EB%B9%84%EB%8F%99%EA%B8%B0-feat.-blocking-vs-non-blocking- https://brownbears.tistory.com/292- https://data-newbie.tistory.com/231#google_vignette배우는 중이라 틀린 정보가 있을 수..
참조- chatgpt- https://gmlwjd9405.github.io/2018/09/14/process-vs-thread.html- https://ivdevlog.tistory.com/3- https://hhj6212.github.io/programming/python/2021/04/18/python-multi.html- https://velog.io/@wonhee010/%EB%8F%99%EA%B8%B0vs%EB%B9%84%EB%8F%99%EA%B8%B0-feat.-blocking-vs-non-blocking배우는 중이라 틀린 정보가 있을 수 있는데, 업데이트되는 공부 내용이 있으면 계속 고치겠습니다. 교정해주시면 감사하겠습니다..! (_ _) 목록1. CPU2. Core3. Process4. Th..
논문 : 링크 residual network 의 수식 표현은 아래와 같다.$y_l = h(x_l) + F(x_l, W_l)$$x_{l+1} = f(y_l)$ residual learning을 처음 제시했던 논문 에서는 $h$ 는 identity mapping 이었고, $f$ 는 ReLU 였다.해당 논문에서는 $h, f$ 를 identity 로 만드는 것이 최적화를 쉽게 만들어주고 이에 따른 모델 성능 부스트에 효과적임을 보인다. 우선 $h, f$ 를 identity 로 만드는 것이 최적화를 쉽게 만들어주는 것에 대한 수식적 접근을 보면 아래와 같다. 위에 쓴 식에서 $h, f = \mathbb{I}$ 라고 하면 아래와 같이 단순해진다.$x_{l+1} = x_l + F(x_l, W_l)$ 이 식은 일종의 ..