Добрый день, уважаемая администрация и пользователи сервиса.
Прошу внести ясность (если это возможно)
Я написал простенький скрипт на php, для анализа и парсинга форумов на вашем сервисе, вот приведу его кусочек:
$url = "forum.mybb.ru"; define('ONE_PAGE_PARSE_TIMEOUT', 30); function sFileGetContent($sUrl) { $sContent = ''; $sUrl = str_replace('http://', '', $sUrl); $_aTmp = explode('/', $sUrl); $sDomain = $_aTmp[0]; $sGet = str_replace($sDomain, '', $sUrl); $fp = fsockopen($sDomain, 80, $errno, $errstr, ONE_PAGE_PARSE_TIMEOUT); if (!$fp) { } else { $out = "GET $sGet HTTP/1.0\r\n"; $out .= "Host: $sDomain\r\n"; $out .= "Accept: text/html, application/xml;q=0.9, */*;q=0.1\r\n"; $out .= "Accept-Charset: windows-1251, utf-8;q=0.6, *;q=0.1\r\n"; $out .= "Accept-Encoding: deflate, gzip, identity, *;q=0\r\n"; $out .= "Accept-Language: ru\r\n"; $out .= "Connection: close\r\n"; $out .= "Keep-Alive: 300\r\n"; $out .= "Expires: Thu, 01 Jan 1970 00:00:01 GMT\r\n"; $out .= "Cache-Control: no-store, no-cache, must-revalidate\r\n"; $out .= "Pragma: no-cache\r\n"; $out .= "Cookie: income=1\r\n"; $out .= "User-Agent: Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.2.1) Gecko/20021204\r\n"; $out .= "Referer: http://$sDomain/\r\n"; $out .= "Connection: Close\r\n\r\n"; fwrite($fp, $out); while (!feof($fp)) { $sContent .= fgets($fp, 2048); } fclose($fp); } return $sContent; } $string = sFileGetContent ("http://".$url."/"); echo $string; exit;
Но он не работает (хотя должен)!!!
Пробовал так же и простыми классическими методами через функции:
$string = file_get_contents("http://".$url."/"); $string = implode('', file ("http://".$url."/"));
Далее анализирую контент форумов, как мне нужно.
А теперь вопрос, не стоит ли на сервисе каких либо запретов на подобные деяния из вне?
Имею исключительно благие и добрые намерения, сделать наш мир лучше
p.s.
тему с rss экспортом видел и читал.