Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Dell #Latitude #BIOS
- ESP32 #Arduino
- 다이슨 #배터리
- k6 #피코프레소
- Java #MacBook #macOS
- Laptop #CPUID
- fat32 #rufus
- Arduino #Wall Plotter
- Arduino #PlatformIO #macOS
- x99 itx/ac
- macro lens #EF #FD
- Oh My Zsh #macOS
- CM-EF-NEX
- 매크로렌즈 #리버스링
- VMware #Shared Folder
- XTU #Virtual Machine System
- TensorFlow #Python #pip
- cycloidal #rv reducer
- 피코프레소 #ITOP40
- VirtualBox #VMware
- Linux #VirtualBox
- Callaway #Mavrik #Epic Flash
- VNC #Firewall #CenOS7 #VMware
- razer #deathadder #viper #g102
- egpu #aorus gaming box #gtx1070 #tb3
- Tarantula #3D 프린터
- Xeon #E5-2680
- ITOP40
- centos7 #yum update #/boot
- Octave #homebrew #macOS
Archives
- Today
- Total
목록2025/04/10 (1)
얕고 넓게
[AI] Llama 파인튜닝 @Ubuntu
2025.04.10Copilot, ChatGPT 말해준 코드로 진행하다가 포기결국 지난번 따라했던 아래를 참조하여 진행https://jjaegii.tistory.com/35 KoAlpaca 데이터셋을 활용한 Llama 3.1 LoRA 기반 PEFTLlama 3.1 모델을 LoRA(Low-Rank Adaptation) 기법을 사용해 한국어 데이터셋인 KoAlpaca를 기반으로 Parameter Efficient Fine-Tuning 하는 과정을 다룬다.LoRA는 대규모 언어 모델을 적은 자원으로도 효율적으로 학습jjaegii.tistory.com일단 학습데이터를 txt에서 json으로 변환부터 했다.쭉 진행하다가 tokenizer 가 문제가 있어 일단 제외하고 학습 완료그런데 결과가 *.safetensor..
IT/AI.ML
2025. 4. 10. 21:10