Study
-
5월 4주차Study/GeekNews 2024. 5. 23. 17:39
필요한 GeekNews를 읽고 내가 필요한 내용들만 블로그에 다시 정리참고자료 : GeekNewsChatGPT, 데이터 분석 기능 개선링크 : https://openai.com/index/improvements-to-data-analysis-in-chatgpt/ 데이터 파일을 업로드하면 ChatGPT가 사용자를 대신해 Python 코드를 작성하고 실행하여 데이터를 분석대규모 데이터 세트 병합 및 정리, 차트 생성, 인사이트 발견과 같은 다양한 데이터 작업을 알아서 처리구글 드라이브와 OneDrive에서 파일을 직접 업로드테이블과 차트를 볼때 풀스크린 뷰에서 인터랙티브하게 지원특정 영역을 잡아서 추가 질문을 하거나, ChatGPT의 프롬프트 제안에 따라 더 깊은 분석 가능차트를 개인화하고 다운로드 가능막..
-
Machine-LearningStudy/tech-interview 2024. 2. 19. 13:47
AI-tech-interview를 위한 머신러닝 파트입니다. 전체적인 내용과 질문은 https://github.com/boost-devs/ai-tech-interview/blob/main/answers/2-machine-learning.md 해당 사이트를 참고했습니다. #1 알고 있는 metric에 대해 설명해주세요. (ex. RMSE, MAE 분류를 위한 평가지표 vs 회귀를 위한 평가지표 분류 작업에 적용할 수 있는 평가지표 정확도(accuracy) 정확도는 모델의 예측이 얼마나 정확한지를 의미한다. 예측 결과가 동일한 데이터 개수 / 전체 예측 데이터 개수로 계산 가능, 해당 방법은 그냥 맞춘거/전체 데이터 이렇게 생각하면 될듯...
-
audio-visual 파악Study/개인 연구 2022. 7. 29. 10:32
ACAV100M: Automatic Curation of Large-Scale Datasets for Audio-Visual Video Representation Learning 내가 하려고 하는 audio-visual correlation 에 대해 논문에서 사용한 경우를 찾고 정리하려고 한다. NCE-based MI Estimation Subset Selection via MI Maximization인데 일단 정확한 MI를 계산하는건 고차원변수의 joint distribution을 estimating 하기 때문에 실현불가능한 문제이므로 approximate를 한다. NCE loss를 기반으로 할 수 있는데 feature를 linear projection 해서 embeddings을 만들고 이 두를 NCE..
-
논문 정리Study/개인 연구 2022. 6. 8. 22:34
Base 코드와 유사한 논문들을 간단하게 리뷰하려고 합니다. Contrastive Multiview Coding 인간은 세상을 많은 sensory channels로 봅니다. 각각의 view는 noisy 하고 incomplete 합니다. 하지만 중요한 factor이고 모든 view를 shared하는 경향이 있습니다. 그래서 논문의 저자들은 Multiview contrastive learning이라는 framework 가설을 세우는데 같은 장면의 다른 view사이에 mutual information을 최대화하는 방향으로 represenation을 학습합니다. contrastive loss가 기존의 인기 있었던 cross-view prediction보다 성능이 뛰어나고 view를 더 많이 배울수록 repres..
-
Distilling Audio-Visual Knowledge by Compositional Contrastive LearningStudy/개인 연구 2022. 6. 7. 13:54
이번에 리뷰할 논문은 독일에 아주 유명한 대학교인 튀빙겐? 대학교 에서 나온 CVPR 2021에 accepted된 Distilling Audio-Visual Knowledge by Compositional Contrastive Learning이다. 1. Introdcution Video는 informative 한 multi-modal cues를 가지고 있습니다. visual obejct나 motion, auditory event등이 이에 해당하고요. 이와 같은 것들이 representation learning을 위한 rich하고 transferrable한 semantices을 제공합니다. 논문에 목표는 video represenations을 위해 spatial 이미지 데이터와 temporal한 오디오 데..
-
DataSetStudy/개인 연구 2022. 5. 26. 23:18
Self-supervised learning 기반 Video Representation Learning training dataset : UCF/HMDB(small-scale), Kinetics 시리즈(medium-scale), AudioSet(large-scale) Action recognition - UCF 101 : pBYOL(A Large-Scale Study on Unsupervised Spatiotemporal Representation Learning,CVPR2021), VideoMAE(VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training, 2021) Masked autoe..
-
연구주제 관련 Top tier conference 논문 정리Study/개인 연구 2022. 4. 11. 00:41
Self-Supervised Method로 video represenation learning을 한다. 여기서 pretext task로 실제 Video에서 visual 정보랑 audio 정보랑 연관이 없는 경우가 있다?아니면 실제 audio 정보가 의미가 없는 경우가 있다.. 이걸 구분해주는 모듈?내용의 idea로 self-supervised learning을 한다. CVPR 2021, ICCV 2021, ECCV 2020 이렇게 3개의 컨퍼런스에 Video 관련 논문을 다 찾아보자.그리고 마지막으로 검색으로 찾기 CVPR 2021 1. Weakly Supervised Video Salient Object Detection -> 이건 좀 Weakly Supervised 관련 흥미로운 내용이라 체크해보자...