문서광장
테마광장
EasyAI
파트너스
토픽광장
로그인
회원가입
충전하기
자료등록
고객센터
마이페이지
알림
장바구니
0
토픽광장
AI토픽
토픽위키
BERT
단어 의미 다의성
문맥 이해
미세 조정
사전 훈련
성능 평가
언어 모델
일반화 능력
자연어 처리
혁신적 성과
총
1
개
연관순
구매순
연관순
연관순
구매순
자연언어처리 모델 알고리즘 활용 코로나19 연구 분석
2024.10.06
1. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 1.1. 논문의 레퍼런스 논문의 레퍼런스는 Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North...
2024.10.06
# BERT
# 자연어 처리
# 언어 모델
# 사전 훈련
# 미세 조정
# 문맥 이해
# 단어 의미 다의성
# 일반화 능력
# 성능 평가
# 혁신적 성과
AI 챗봇
2025년 02월 22일 토요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
1:49 오후
아이디와 비밀번호를 잊어버렸습니다.
자료를 잘못 구매했어요. 취소가 가능한가요?
왜 10,000원을 충전했는데 12,000원 결제가 되었나요?
출금 신청 시 실명확인DB에 없는 정보라고 나와요.