라벨이 파이썬(python)인 게시물 표시

Django rest framework + MariaDB 맛보기 Feat.pycharm, swagger

이미지
2016년이였나??,, Django를 처음 접했던게? 대학교 3학년 때이다. 지금도 모르는게 많지만, 그때와 지금 비교해보면 그때는 지금보다 더 모르는게 많았었다. 만들고 싶은 웹서비스가 있어서, 프레임워크가 어떤것인지에 대한 개념도 모른 체로 무작정 사용 했었던 기억이 난다. 지금와서 다시 찾아보고, 공부하니까.. 예전에 고민했었던 사안이 생각난다. 과거에 선배 개발자들에게 선생님들에게 종종 물었었다. "언어도 너무 많고, 라이브러리 프레임워크가 너무 많다. 공부할 게 너무 많다 어떻게 해야될지 모르겠다"라고 고민을 얘기하면 돌아오는 대답은 항상 비슷했다. '하나를 깊게 알면, 언어가 달라도 금방 알 수 있다'라는 답변. 이 답변을 새삼 살결로 느끼게되었다. 물론 하나를 깊게 안다 라는 말은 과거의 나에비해 헤헤헤 상대성 이론은 완벽하다. 서두가 주저리주저리 너무 길었는데, 본론으로!!고우~ 먼저, 프로젝트 생성. 경로는 알아서 해주고, 앱이름도 알아서 해준다. 보는 바와 같이 파이썬 버전은 3.7 Django 버전은 2.1.7 필수 패키지는 djangorestframework 3.9.2 django-rest-swagger 2.2.0 mysqlclient 1.4.2.post1 mysqlclient는 MariaDB가 설치 되어있지 않으면, 패키지 설치가 안되기 때문에 MariaDB설치 -> mysqlclient 패키지 설치해야된다. 본인은 맥에서 개발중인데, brew는 이미 설치 되었다는 가정하고 brew update brew install mariadb 하고나면, 블라블라~ 설치 어쩌구 로그들 완료되고 서버를 키는데, 아래처럼 /usr/local/etc/my.cnf.d 가 없단다. 그래서 직접 만들어주고 다시 실행. namdong-gil-ui-MacBookPro:man namdong-gil$ mysql.server star...

대학생 코딩 과제 대행 java, python, oracle 스물 다섯 번째

https://open.kakao.com/o/s3aMpbA 이번에는 지난번에 했던 파이썬으로 소켓통신을 하는 과제를 의뢰받았다. 소켓을 통해서 파일을 서버에 업로드 하는 간단한 과제였다. 먼저 서버 #-*- coding: utf-8 -*- import socket #서버 소켓 오픈 server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) port = 12345 server_socket.bind(("", port)) server_socket.listen(5) print ("TCP Upload Server Waiting for client on port " + str(port)) while True:     client_socket, address = server_socket.accept()     print("I got a connection from ", address)     req = client_socket.recv(1024)     print("Request :  ", req)     decodedReq = req.decode("utf-8")     print("decode : ", decodedReq)     fileTitle = decodedReq.split('!@#$%^&*')[0]     fileContent = decodedReq.split('!@#$%^&*')[1].encode("utf-8")     print('title : ', fileTitle)     print('content : ', fileContent)     uploadFile = open(fileTitle, "wb")     uploa...

대학생 코딩 과제 대행 java, python, oracle 스물 세 번째

이미지
https://open.kakao.com/o/s3aMpbA 요즘 회사다니면서 과제 의뢰가 들어와도 못했었는데, 그래도 짬이 나서 오랜만에 도전..! 이번 의뢰자도 외국대학교 인데 어디 학교인지는 모르겠다. 먼저 요구사항이다. python으로 생물학적인(?) 세포를 이차원배열에서 지지고 볶고 하는 과제이다. graphics.py 사용해야하는게 필수 조건이다. 실행영상이다. 코드는 지저분해서.. 올리지 말까하다가 올린다. from graphics import * import random # makeControl()function creates Control Panel Graphics window as specified def makeControl (): window = GraphWin( "Control Panel" , 300 , 460 ) # GENERATIONS meesage box = Rectangle(Point( 0 , 20 ) , Point( 300 , 40 )) box.draw(window) box.setFill( "black" ) messages = Text(Point( 150 , 30 ) , "GENERATIONS" ) messages.draw(window) messages.setTextColor( "white" ) # START,RANDOM, MANUAL, RESTART, PAUSE, QUIT button START = Rectangle(Point( 30 , 50 ) , Point( 130 , 80 )) START.draw(window) START.setFill( "green" ) Smessages = Text(Point( 80 , 65 ) , "START" ) Smessages.draw(windo...

python으로 웹 데이터를 긁어보자

이미지
제가 긁을 페이지는 무신사인데, 정한이유가 여러가지가 있지만,, 생략하고.. 먼저 긁기 전에 페이지의 구조를 봅니다. 무신사에는 아주 많은 옷에 대한 정보들이 있는데 저는 바지만 긁어모을것이기 때문에,, 먼저 url구조를 보면 http://store.musinsa.com/app/product/detail/200979/0 200979가 해당 제품을 식별할 수 있게 해준다. 이숫자는 제품을 업로드한 순으로 추측되는데 이유는 정확히 모른다. 그 다음에 긁을 태그들을 분석한다. 가져와보니까 table형식으로 되어있다. 전체 html -> 필요한 태그 -> 필요한 정보를 얻을수 있도록 정제하기 뽑아내서 파일에 모아서 저장하기 따라서 허접하지만 여러 블로그들을 참고해서 노가다형식으로 코드를 짜봤다. 보완할 필요가 많은 코드지만 돌아가긴해서 ,, # -*- coding: utf-8 -*- from bs4 import BeautifulSoup from urllib.request import urlopen import re import csv def spider ( max_pages ): page = 346086 fixpage = page while page < max_pages: link = ' http://store.musinsa.com/app/product/detail/ ' + str (page) + ' /0 ' pantsno = link[ 44 : 50 ] f = urlopen(link) soup = BeautifulSoup(f, ' lxml ' ) a = soup.find_all( ' p ' ,{ ' class ' : ' item_categories ' }) b = bool (re.search( ' 하의 ' , str (a))) c = bool (soup....