본문 바로가기

분류 전체보기88

[SQL] Chapter 2. (3~5강) 튜플(Tuple, 레코드)유일성: 테이블 내에는 2개 이상의 동일 튜플이 존재할 수 없음.튜플들은 순서를 갖지 않음. 속성(Attribute, Column, 통계 데이터에서는 변수(Variable))순서를 갖지 않음.속성값(Attribute Value)은 반드시 원자 값(Atomic Value)을 가져야 함. 테이블 스키마: 데이터베이스 관리 시스템에서 데이터 구조를 기술.데이터베이스 스키마: 데이터베이스에서 테이블 스키마의 집합.스키마(Schema): 구조와 표현법에 대한 정의. 키(Key): 테이블에서 특정 튜플을 식별 가능하게 하는 속성의 집합.슈퍼키(Super Key): 아무런 제약없이 튜플을 구분할 수 있는 속성의 집합.후보키(Candidate Key): 키 중 최소한의 속성만으로 구성된 키기본.. 2025. 7. 7.
Instruct Pix2Pix 모델을 활용한 포켓몬 채색 Raw DatasetKaggle에서 공개된 포켓몬 이미지 데이터셋을 사용.이후에 전처리 편의성을 위해 png 형식에서 jpg 형식으로 변환.구분형식비고이미지 파일[이미지 파일명(Index)].png · 총 819장의 rgb 이미지 · (256,256,3) 크기의 이미지Create CaptionRGB 이미지에 대해서 CLIP Interrogator를 사용하여 caption을 생성. CLIP Interrogator는 CLIP과 BLIP을 결합하여 이미지의 시각적 특징을 프롬프트로 변환.BLIP으로 이미지에 대한 caption을 생성.위 caption을 기반으로 CLIP Interrogator는 프롬프트 라이브러리를 통해 다양한 후보 생성.CLIP으로 이미지와 해당 텍스트들의 유사도를 계산하고, 가장 높은 유.. 2025. 7. 7.
[논문 리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2019) Paper: https://arxiv.org/pdf/1810.04805기존의 언어 모델들과 달리, BERT는 모든 layer에서 왼쪽과 오른쪽 문맥을 함께 고려하며 unlabeled text로부터 깊은 양방향 표현을 pre-training하도록 설계되었다.이로 인해, pre-train된 BERT 모델은 단 하나의 추가 output layer만 더해도 다양한 task에서 SOTA를 달성하는 모델로 fine-tuning할 수 있으며, task별로 복잡한 구조 변경도 필요하지 않다.즉, unlabeled data로 pre-train을 진행한 후, 이를 특정 downstream task에 fine-tuning을 하는 모델이다. 본 논문에서는 Deep Bidirectional이란 키워드를 강조하는 모습을 보인다.. 2025. 7. 7.
[논문 리뷰] GPT-1: Improving Language Understanding by Generative Pre-Training (2018) Paper: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdfAbstract이전까지 unlabeled corpus는 많았지만, labeld data는 많지 않았다.그래서 GPT-1에서는 labeling된 다양한 text를 통해 언어 모델을 generative pre-training하고, 각 task에 맞는 discriminative fine-tuning을 하는 구조를 제안한다.GPT-1에서는 fine-tuning 과정에서 task-aware input transformation을 사용해서 모델 구조를 최소화하고, 효과적인 fine-tuning을 가능하게 한다고 한다.12개 중 9개 tas.. 2025. 7. 7.
[논문 리뷰] FAR: Fourier Aerial Video Recognition (2022) Paper: https://arxiv.org/pdf/2203.10694v2 일반적인 Image Classification task는 이미지 내 객체의 class를 분류하는 것이다.분류를 목적으로 하는 CNN 모델들은 layer를 지날수록 global한 추상적 정보 추출에 초점이 맞춰져 있다.즉, 객체의 위치 정보와 상관없이 단순히 종류(class)에만 관심이 있다는 뜻이다. 그러나, 위처럼 객체의 크기가 배경에 비해 아주 작다면 global한 추상적인 정보만으로는 좋은 성능을 기대하기 힘들 것이다.본 논문에서는 문제 해결을 위해 FAR(Fourier Activity Recognition) 알고리즘을 제안하며, 이는 다음 2가지 방법론을 사용.작은 객체와 배경을 효과적으로 분리하기 위한 새로운 Fouri.. 2025. 7. 7.
[논문 리뷰] FCBFormer: FCN-Transformer Feature Fusion for Polyp Segmentation (2022) Paper: https://arxiv.org/pdf/2208.08352v1AbstractFCBFormer는 대장 내시경 영상의 대장암 부분의 영역을 검출하기 위해 제안된 모델이다.폴립(용종) 분할은 병변 탐지 및 분류에 핵심이지만, 수동으로 작업하는 것은 시간 소모가 크다.딥러닝으로 자동화는 가능하지만, 과적합 문제와 장비 다양성에 따른 일반화 성능 저하가 있다. 최근 transformer 기반의 모델들은 성능은 높지만, 출력 해상도가 $(\frac{H}{4} \times \frac{W}{4})$인 한계가 존재했다.해상도의 저하없이 성능을 유지하기 위해, 두 개의 branch로 구성된 architecture를 제안하였다.Primary BranchTransformer Branch(TB) → 중요한 특징 추.. 2025. 7. 7.