ºÎ¼­ ¼Ò°³

³×À̹öŬ¶ó¿ìµå´Â ¡®µ¶ÀÚ AI ÆÄ¿îµ¥ÀÌ¼Ç ¸ðµ¨¡¯ ÇÁ·ÎÁ§Æ®¸¦ ÅëÇØ AI ¿¡ÀÌÀüÆ®¸¦ Áö¿øÇÏ´Â ¿È´Ï ÆÄ¿îµ¥ÀÌ¼Ç ¸ðµ¨¿¡ ÁýÁßÇϰí ÀÖ½À´Ï´Ù. ¿ì¸®´Â ±¹¹ÎÀÌ ½±°Ô °æÇèÇϰí, Àü ¼¼°è ¾îµð¼­µç Ȱ¿ë °¡´ÉÇÑ ±¹°¡´ëÇ¥ AI ¸ðµ¨À» ±¸ÇöÇÏ¿© ±Û·Î¹ú ¹«´ë¿¡¼­µµ ÀÎÁ¤¹Þ´Â K-AI¸¦ ¸¸µé¾î ³ª°¡°íÀÚ ÇÕ´Ï´Ù. Hyperscale AI¿¡¼­´Â, AI °³¹ßÀÇ ÇÙ½É ±â¹ÝÀ» ÇÑÃþ ´õ °­È­Çϱâ À§ÇØ AI ¸ðµ¨ÀÇ »ý»ê °úÁ¤ Àü¹Ý¿¡ °ÉÃÄ ¿£Áö´Ï¾î¸µ ¿ª·®À» ±Ø´ëÈ­ÇÏ´Â ¿©Á¤ ÇÔ²² ÇÏ½Ç ºÐµéÀ» ¸ðÁýÇϰí ÀÖ½À´Ï´Ù.

Hyperscale AI´Â ÇöÀç ´ë±Ô¸ð infra-structure¿¡¼­ÀÇ Àü °øÁ¤ ÇнÀ ½Ã½ºÅÛ È¿À²È­¸¦ Çϱâ À§ÇÑ ³ë·ÂÀ» Çϰí ÀÖ½À´Ï´Ù. ¹æ´ëÇÑ µ¥ÀÌÅ͸¦ ÀÌ¿ëÇØ LLMÀÇ ÇнÀ¿¡ ÇÊ¿äÇÑ µ¥ÀÌÅ͸¦ °¡°øÇϰí Á¤Á¦ÇÏ´Â ÀÛ¾÷À» Æ÷ÇÔÇÏ¿© Áö±ÝÀÇ LLM ÇнÀ¿¡´Â ¸¹Àº ³ë·ÂÀÌ ÇÊ¿äÇÑ °ÍÀÌ Çö½ÇÀÔ´Ï´Ù. Áö±Ý ÀÌ ¼ø°£¿¡µµ ´Ù¾çÇÑ parallelism ±â¹ýµéÀÌ ¿ä±¸µÇ´Â ¸ðµ¨ÀÌ »õ·Ó°Ô ź»ýÇϰí ÀÖÀ¸¸ç, ´Ü¼øÈ÷ sw ·¹º§¿¡¼­¸¸ ÀÌÇØÇϰí ÃÖÀûÈ­ ÇÏ´Â °ÍÀ» ³Ñ¾î¼­ ÀÌÁ¦´Â infra-structure¿¡ ´ëÇÑ ÀÌÇØ¿Í hw level±îÁö ±í¼÷È÷ ³»·Á°¡¼­ ÃÖÀûÈ­ ÇÏ´Â ¾÷¹«µéÀ» ¿ä±¸Çϰí ÀÖ½À´Ï´Ù. Hyperscale AI¿¡¼­´Â HyperCLOVA-XÀÇ ÇнÀ ¿ª·® Çâ»óÀ» À§ÇØ µ¥ÀÌÅÍ °¡°ø/Á¤Á¦¸¦ À§ÇÑ DataOpsºÎÅÍ ÇнÀ ·ÎÁ÷ ÃÖÀûÈ­¸¦ À§ÇÑ MLOps±îÁö, AI ¸ðµ¨ »ý»ê °øÁ¤¿¡ ÇÊ¿äÇÑ ¿£Áö´Ï¾î¸µ ¿ª·®À» ±Ø´ëÈ­ÇÏ¿© Sovereign AI ¹ßÀü¿¡ ¾ÕÀå¼­°íÀÚ ÇÕ´Ï´Ù.

´ã´ç¾÷¹«

 ´ë±Ô¸ð ÇнÀµ¥ÀÌÅÍÀÇ Àüó¸® ¹× µ¥ÀÌÅÍ »ý»ê ½Ã½ºÅÛ °³¹ß

 ´ë±Ô¸ð GPU ºÐ»ê ÇнÀ ½Ã½ºÅÛ ºÐ¼® ¹× ÃÖÀûÈ­

 »õ·Î¿î ÇнÀ ÃÖÀûÈ­ ±â¹ý ¹ß±¼ ¹× ³»ÀçÈ­

 ºÐ»ê ÇнÀ ½Ã½ºÅÛÀÇ ÃÖÀûÈ­¿Í ¾ÈÁ¤¼º Çâ»óÀ» À§ÇÑ °¢Á¾ ÇÁ·ÎÆÄÀϸµ ±â¹Ý ½Ã½ºÅÛ ±¸Çö

 HyperCLOVA XÀÇ À¯°üºÎ¼­ (°æ·®È­, ¸ðµ¨, ÀÎÇÁ¶ó, Pre-training ºÎ¼­, Post-training ºÎ¼­)¿Í Çù¾÷

ÀÚ°Ý¿ä°Ç

 ´ë±Ô¸ð ºÐ»ê ÇнÀ ½Ã½ºÅÛ ÃÖÀûÈ­¸¦ ´Ù·ç°Å³ª °³¹ßÇÑ °æ·ÂÀ» 2³â À̻󠺸À¯ÇϽŠºÐ

 ÁÖµµÀûÀÎ ÀÚ¼¼·Î ½Ã½ºÅÛÀÇ Àüü ¼º´ÉÀÌ °³¼±µÇ°í Çâ»óµÇ´Â ÀÚü¿¡ Áñ°Å¿òÀ» ´À³¢½Ã´Â ºÐ

 ¼º´É Çâ»ó°ú SW Architecturing °üÁ¡¿¡¼­ È®Àå °¡´É¼º/À¯Áöº¸¼ö¸¦ °°ÀÌ °í¹ÎÇÒ ¼ö ÀÖ´Â ºÐ

 Pytorch, huggingface µî deep learning framework¿¡ ´ëÇÑ ³ôÀº ¼÷·Ãµµ¸¦ º¸À¯ÇϽŠºÐ

 LLM ¹× Transformer ¸ðµ¨¿¡ ´ëÇÑ ÇнÀ/inference ºÐ¼® ´É·ÂÀ» º¸À¯ÇϽŠºÐ

 ´ë±Ô¸ð ºÐ»êÇнÀ frameworks(FSDP, Deepspeed, Megatron-lm, NeMo, Torchtitan)¸¦ ´Ù·é °æÇèÀÌ ÀÖÀ¸½Å ºÐ

¿ì´ë»çÇ×

 Large-scale Model ÇнÀ ½Ã½ºÅÛ °³¹ß/ÃÖÀûÈ­¸¦ À§ÇÑ Parallelism¿¡ ´ëÇÑ ±íÀº ÀÌÇØ¸¦ º¸À¯ÇϽŠºÐ

 GPU architecture¿¡ ´ëÇÑ ³ôÀº ÀÌÇØ ¹× cuda kernel °³¹ßÀ» ÅëÇÑ ÃÖÀûÈ­ °æÇèÀÌ ÀÖÀ¸½Å ºÐ

 LLM knowledge distillation ³í¹®/¿¬±¸ ½ÇÀûÀ» º¸À¯ÇϽŠºÐ

 LLM ÇнÀ ÃÖÀûÈ­ ³í¹®/°³¹ß °æÇèÀ» º¸À¯ÇϽŠºÐ

 Large-scale LM ÇнÀ ½Ã½ºÅÛ ¿î¿µ/°³¹ß/ÃÖÀûÈ­ °æÇèÀÌ ÀÖÀ¸½Å ºÐ

ÀüÇüÀýÂ÷ ¹× ±âŸ»çÇ×

[ÀüÇüÀýÂ÷]

¼­·ù ÀüÇü(±â¾÷¹®È­ÀûÇÕµµ °Ë»ç ¹× Á÷¹« Å×½ºÆ® Æ÷ÇÔ) ¢º 1Â÷ ÀÎÅÍºä ¢º ·¹ÆÛ·±½ºÃ¼Å© ¹× 2Â÷ ÀÎÅÍºä ¢º ó¿ìÇùÀÇ ¢º ÃÖÁ¾ÇÕ°Ý

¡Ø ÀüÇü ÀýÂ÷´Â ÀÏÁ¤ ¹× »óȲ¿¡ µû¶ó º¯µ¿µÉ ¼ö ÀÖÀ¸¸ç, ÀüÇüº° °á°ú¿¡ µû¶ó ÀýÂ÷(Ãß°¡ ÀÎÅÍºä µî)°¡ Ãß°¡µÉ ¼ö ÀÖ½À´Ï´Ù.

¡Ø Á¤ÇØÁø °á°ú ¹ßÇ¥ ÀÏÁ¤Àº ¾øÀ¸¸ç, Áö¿ø¼­ °ËÅä ÈÄ ¸éÁ¢ ÀÏÁ¤Àº ´ë»óÀÚ¿¡°Ô °³º°·Î ¾È³»µå¸± ¿¹Á¤ÀÔ´Ï´Ù.



[±Ù¹«Áö]

°æ±â ¼º³²½Ã ºÐ´ç±¸ ºÒÁ¤·Î 6 (±×¸°ÆÑÅ丮)

¡Ø ±Ù¹«Áö´Â ȸ»ç ³»ºÎ »çÁ¤¿¡ µû¶ó º¯µ¿µÉ ¼ö ÀÖ½À´Ï´Ù.



[±âŸ»çÇ×]

- º» °ø°í´Â Ÿ °ø°í¿Í Áߺ¹Áö¿øÀÌ ºÒ°¡´ÉÇϸç, ±âÁøÇàÇÑ Æ÷Áö¼Ç¿¡ ´ëÇÑ ÀüÇüÀÌ ¸ðµÎ ¸¶¹«¸® µÇ¸é ´Ù¸¥ Æ÷Áö¼ÇÀ¸·Î Áö¿øÀÌ °¡´ÉÇÕ´Ï´Ù.

- ÇØ¿Ü ÃâÀå¿¡ °á°Ý »çÀ¯°¡ ¾ø´Â ºÐ¸¸ Áö¿ø °¡´ÉÇÕ´Ï´Ù.

- º´¿ª Àǹ«¸¦ ÇÊÇÑ ÀÚ È¤Àº ¸éÁ¦µÈ ÀÚ(³²¼ºÀÇ °æ¿ì)¿¡ ÇÑÇØ ÀÔ»çÁö¿øÀÌ °¡´ÉÇÕ´Ï´Ù.

- Áö¿ø¼­ »ó ÇãÀ§ ±âÀç°¡ Àְųª Á¦Ãâ ¼­·ù°¡ ÇãÀ§ÀÎ °æ¿ì ÇÕ°ÝÀÌ Ãë¼ÒµÉ ¼ö ÀÖ½À´Ï´Ù.

- Á¦ÃâµÈ Áö¿ø¼­´Â [My page- Áö¿øÇöȲ]¿¡¼­ È®ÀÎ °¡´ÉÇϸç, °ø°í ¸¶°¨ Àü±îÁö ȨÆäÀÌÁö¿¡¼­ ¼öÁ¤ ¹× Áö¿ø öȸ°¡ °¡´ÉÇÕ´Ï´Ù.

- º» °ø°í´Â ÀÎÀç ¼±¹ß ¿Ï·á ½Ã Á¶±â ¸¶°¨µÉ ¼ö ÀÖÀ¸¸ç, ÇÊ¿ä ½Ã ¸ðÁý ±â°£ÀÌ ¿¬ÀåµÉ ¼ö ÀÖ½À´Ï´Ù.

- ±¹°¡À¯°øÀÚ ¹× Àå¾ÖÀÎ µî Ãë¾÷º¸È£ ´ë»óÀÚ´Â °ü°è¹ý·É¿¡ µû¶ó ¿ì´ëÇÕ´Ï´Ù.

- ±¹°¡À¯°øÀÚÀÇ °¡»êÁ¡ ºÎ¿©¸¦ ¹Þ±â À§Çؼ­´Â º»ÀÎÀÌ 'Ãë¾÷Áö¿ø ´ë»óÀÚ Áõ¸í¼­'¸¦ ȸ»ç¿¡ Á¦ÃâÇØ¾ß ÇÕ´Ï´Ù.

- Á¦ÃâÇØÁֽŠÁö¿ø¼­ÀÇ °ËÅä °á°ú ¹ßÇ¥´Â Áö¿ø¼­¿¡ µî·ÏÇϽŠÀ̸ÞÀÏ·Î °³º° ¾È³»µå¸³´Ï´Ù.

- ÀÔ»ç ÈÄ 3°³¿ùÀÇ ¼ö½À ±â°£À» Àû¿ëÇÏ¸ç Æò°¡¿¡ µû¶ó ¼ö½À ±â°£ÀÌ ¿¬ÀåµÇ°Å³ª ä¿ëÀÌ Ãë¼ÒµÉ ¼ö ÀÖ½À´Ï´Ù.

- ¹®ÀÇ»çÇ×Àº NAVER Cloud ä¿ë ȨÆäÀÌÁö 1:1 ¹®ÀÇ·Î Á¢¼öÇØÁֽñ⠹ٶø´Ï´Ù.