* À¯Åë ´ë±â¾÷ / ¿¬¸ÅÃâ 0Á¶¿ø / ¼¿ï / Á¤±ÔÁ÷ / ¿¬ºÀÇùÀÇ (ÇöÀçÀÌ»ó)
µ¥ÀÌÅÍ»çÀÌ¾ðÆ¼½ºÆ®(AI.ML.µö·¯´×.´ë¿ë·®µ¥ÀÌÅÍ.SQL.Python) 1¸í
- AI¿£Áö´Ï¾î.µ¥ÀÌÅÍ¿£Áö´Ï¾î(MLOps/AI Platform ¿£Áö´Ï¾î)
¡á ¼öÇà¾÷¹«
* Çõ½ÅÀûÀÎ ±â¼ú°ú µ¥ÀÌÅÍ ºÐ¼®À» ÅëÇÑ »ý¾ÖÁֱ⠱â¹Ý Æò»ý Care »ó´ãÀ» ÁÖµµ
ÇÏ´Â DATA/AIÆÀ "MLOps ¿£Áö´Ï¾î"¸¦ ã½À´Ï´Ù
- ¿ÂÇÁ·¹¹Ì½º/Ŭ¶ó¿ìµå NVIDIA GPU ¼¹ö ȯ°æ ±¸Ãà ¹× ¿î¿µ
- LLM inference ¼¹ö (LLaMA, Gemma µî) ÀÎÇÁ¶ó ±¸¼º ¹× ÃÖÀûÈ
- Kubernetes ±â¹Ý AI ¼ºñ½º ¿ÀÄɽºÆ®·¹ÀÌ¼Ç È¯°æ ±¸Ãà ¹× ¿î¿µ
- FastAPI + Redis + Celery ±â¹Ý AI inference ºÐ»ê ÆÄÀÌÇÁ¶óÀÎ ¼³°è
- GPU ¸®¼Ò½º ½ºÄÉÁÙ¸µ, ¸ÖƼ ³ëµå °ü¸®, ¿öÅ©·Îµå ÃÖÀûÈ
- ¼ºñ½º »óÅ ¸ð´ÏÅ͸µ ¹× ¼º´É ºÐ¼® (Prometheus, Grafana µî)
- ½Ã½ºÅÛ º¸¾È, ³×Æ®¿öÅ©, »ç¿ëÀÚ Á¢±Ù Á¦¾î Á¤Ã¥ ¼ö¸³
- ¼ºñ½º Àå¾Ö ´ëÀÀ ¹× ¿î¿µ ÀÚµ¿È ½Ã½ºÅÛ ±¸Ãà
¡á Çʼö¿ä°Ç
<Çʼö°æ·Â>
- 4³âÁ¦ ´ëÁ¹ÀÌ»ó / ¹«°ü
- Linux ±â¹Ý ¼¹ö ±¸Ãà ¹× ¿î¿µ °æÇè (3³â ÀÌ»ó)
- Kubernetes, Docker, HelmÀ» Ȱ¿ëÇÑ ¼ºñ½º ¹èÆ÷ ¹× °ü¸® °æÇè
- NVIDIA GPU Server, CUDA ȯ°æ¿¡ ´ëÇÑ ÀÌÇØ
- Redis, RabbitMQ, Kafka µî Message Queue »ç¿ë °æÇè
- ´ë±Ô¸ð ¼¹ö Ŭ·¯½ºÅÍÀÇ ¿î¿µ/¸ð´ÏÅ͸µ °æÇè
- Python, Bash ±â¹Ý ÀÎÇÁ¶ó ÀÚµ¿È °æÇè
- ¹®Á¦ ÇØ°á°ú ½Ã½ºÅÛ ¾ÈÁ¤¼º Çâ»óÀ» À§ÇÑ ³í¸®Àû »ç°í ¿ª·®
<ÇÊ¿äÁö½Ä>
- Linux ½Ã½ºÅÛ ¹× NVIDA GPU ¼¹ö ¿î¿µ, Kubernetes ±â¹Ý ÄÁÅ×ÀÌ³Ê ¼ºñ½º ¿î¿µ
- Python ¶Ç´Â Bash ±â¹Ý ÀÚµ¿È ½ºÅ©¸³Æ® ÀÛ¼º, Redis ¹× Celery µî ºñµ¿±â ó¸® ½Ã½ºÅÛ ±¸Ãà °æÇè
- ½Ã½ºÅÛ ¸ð´ÏÅ͸µ ¹× ¼º´É °³¼±À» À§ÇÑ Prometheus, Grafana µî Ȱ¿ë °æÇè
¡á ¿ì´ë»çÇ×
- LLM inference workload ÃÖÀûÈ °æÇè
- AI inference ½Ã½ºÅÛ (FastAPI + Celery + Redis) ±¸Ãà °æÇè
- GPU Server Cluster °ü¸® °æÇè
- bitsandbytes, Huggingface Transformers µî ±â¹Ý ¸ðµ¨ inferece °æÇè
- º¸¾È, ³×Æ®¿öÅ© ¹æÈº®, ½Ã½ºÅÛ Á¢±Ù Á¦¾î °æÇè
- MLOps (MLflow, Weights & Biases µî) Ç÷§Æû ±¸Ãà °æÇè
-------------------------------------------------------
¡¼ Á¦Ãâ¼·ù¡½
- ±¹¹®À̷¼ (¿öµå ÆÄÀÏ) ******@*******.***
* ÀÀ½ÃºÐ¾ß Çʼö/ÇöÀç.Èñ¸Á¿¬ºÀ ±âÀÔ, À̷¼ ¹ß¼Û½Ã ÇöÀç or ÃßÈÄ ¼ö½Ãä¿ë Æ÷Áö¼Ç ¹Ý¿µ,
Áö¿ø¼ÀÇ ±âÀç»çÇ×ÀÌ »ç½Ç°ú ´Ù¸¦ °æ¿ì ä¿ëÇÕ°ÝÀÌ Ãë¼ÒµÇ¸ç
À̷¼ °ËÅä ÈÄ ÀûÇÕÇÑ Èĺ¸ÀÚ¿¡ ÇÑÇÏ¿© ÀÚ¼¼ÇÑ »çÇ× ¿ÀÇÂ, Áö¿øÀÇ»ç È®ÀÎ ÈÄ ÁøÇàÇÕ´Ï´Ù.