
폼 데이터 : HTML요소인 태그에 실려 전송되는 데이터 => 데이터를 어디로 (where) , 어떻게(how) 보낼지 적어서 보낸다 DTO : 태그에 실어 보낸 데이터는 서버의 컨트롤러가 객체에 담아 받는 객체 데이터베이스와 JPA 데이터 베이스 : 데이터를 관리하는 창고 DB의 모든 데이터는 행과 열로 구성된 테이블에 저장해놓는다 . JPA: 자바 언어로 DB에 명령을 내리는 도구, 데이터를 객체 지향적으로 관리할 수 있게 해준다 JPA의 핵심도구 : entity, repository entitiy : 자바 객체를 DB가 이해할 수 있게 만든것으로, 이를 기반으로 테이블이 만들어 진다. repository : 엔티티가 DB속 테이블에 저장 및 관리될 수 있게 하는 인테페이스 => DTO를 엔티티로 변..

클라이언트 - 서버 구조 웹 서비스는 클라이언트의 요청에 따른 서버의 응답으로 동작한다. 클라이언트 : 서비스를 사용하는 프로그램 또는 컴퓨터 서버 : 서비스를 제공하는 프로그램 또는 컴퓨터 스프링 부트 실행 스프링 부트에서 서버를 구동하려면 Application을 실행해 주어야한다. Application을 실행하게 되면 "Tomcat started on port(s) : 8080 ..." 이라는 메시지가 뜨게 된다 톰 캣이 8080 이라는 포트에서 수행되었다는 의미 2. 그 후 localhost:8080에 접속 하면 된다. localhost : 8080/hello.html 의 의미 ๑ localhost 실행 중인 서버의 주소 중 특별한 주소인 '내 컴퓨터'를 의미 [ 우리집] ๑ 8080 포트 번호를 ..

스프링 부트 자바 웹 프로그램을 더욱 쉽고 빠르게 만들기 위한 도구이다. 스프링 부트에는 자바 웹 프로그램을 만들기 위한 기능과 도구가 모여있기 때문에 스프링 부트를 사용하면 더 쉽고 빠르게 자바 웹 프로그램을 만들 수 있다. [스프링 => 스프링 부트] 개선 사항 개발 환경 설정 간소화 스프링 : 버전에 따라 동작하는 외부 라이브러리를 일일이 찾아 연동 스프링 부트 : 미리 설정된 스터터 프로젝트로 외부 라이브러리를 최적화 제공하므로 사용자가 직접 연동할 필요가 없다. 웹 애플리케이션 서버를 내장 스프링 부트는 애부에 웹 애플리 케이션 서버인 톰캣을 가지소 있다 따라서 웹 서비스를 jar 파일로 간편하게 배포

선택자(select) 속성으로 링크 수집 # Crawler 함수(페이지, 검색날짜) def crawler_func(date, pages=5): day_news = [] # 1 day news # page 번호(page 수 만큼 반복) for page in range(1, pages+1) : # 1) 최종 url 구성 url = f"https://news.daum.net/newsbox?regDate={date}&page={page}" # 2) url 요청 -> html source res = req.urlopen(url) data = res.read() # 3) html 파싱 src = data.decode('utf-8') # charset='euc-kr' html = BeautifulSoup(src, '..

웹문서 자료 수집 절차 1. 수집할 URL에서 html페이지 소스 요청 2. 디코딩 & html문서 파싱 3. 수집할 태그 확인 4. 태그 수집 5. 태그의 속성 또는 내용 수집 url 자료 수집 순서 1. url 요청 res = req.urlopen(url) data = res.read() # 소스 가져오기 2. 디코딩 & html 파싱 src = data.decode('utf-8') # 디코딩 적용 src # 한글 디코딩 html = BeautifulSoup(src, 'html.parser') 3. 태그[속성=값] 요소 추출 links = html.select('a[class=link_txt]') print(links) print(len(links)) # 104 crawling_data = [] # ..