Ru-Board.club
← Вернуться в раздел «Web-программирование»

» AJAX

Автор: Cheery
Дата сообщения: 28.03.2006 20:37
Oleg_Tarusov

Цитата:
Что такое UTF?

мдя.. как все запущено.. уникод
http://www.hpg.ru/log_chat.html

Цитата:
В ответ мы получаем XML с сервера, который по идее должен быть разобран и аккуратно положен в req.responseXML. И вот тут первый «камень» - не забудьте на сервере указать скрипту тип контента text/xml.

header('Content-Type: text/xml; charset=windows-1251');

Раз уж Вы, уважаемый читатель, всё это читаете, полагаю, что Вы говорите и пишете на русском языке, как следствие, и чат, наверное, предпочтёте русскоязычный. И тут-то всем нам большую, гм, радость подложила компания Microsoft - даже если мы на сервере выставим кодировку windows-1251 и даже если мы нашему req пропишем ту же кодировку


req.setRequestHeader('Content-Type: text/xml; charset=windows-1251');

всё равно XMLHttpRequest в браузере Internet Explorer ведёт себя так, как будто принимает XML в кодировке Unicode. «Где логика, где разум?»© Само собой, при этом однобайтная windows-1251 конвертится в двухбайтную Unicode совершенно диким образом и никакого XML не получается. Кстати, к стыду Microsoft, в Mozilla такого глюка не наблюдается.
Автор: Oleg_Tarusov
Дата сообщения: 28.03.2006 20:54

Цитата:
сервер должен выдавать в UTF текст

Может здесь ошибка не "выдавать в UTF текст", а "выдавать текст в UTF". Вот что меня смутило, так бы догался, что кодировка.

Как я понял req.setRequestHeader('Content-Type: text/xml; charset=windows-1251');
решает проблему с русским языком?
Автор: Cheery
Дата сообщения: 28.03.2006 20:56
Oleg_Tarusov

Цитата:
Как я понял req.setRequestHeader('Content-Type: text/xml; charset=windows-1251');
решает проблему с русским языком?

не всегда.. в IE могут быть проблемы. какие - вот смотри
AJAX - Баг рапорт. Новая фича, требуются тестеры.

Цитата:
Может здесь ошибка не "выдавать в UTF текст", а "выдавать текст в UTF".

"выдавать в уникоде текст" или "выдавать текст в уникоде".. если честно, то не вижу разницы.
Автор: Oleg_Tarusov
Дата сообщения: 28.03.2006 21:02

Цитата:
"выдавать в уникоде текст" или "выдавать текст в уникоде".. если честно, то не вижу разницы.


Я подумал, что UTF это что-то куда текст можно послать.

Добавлено:
Ладно, наверное, придется осваивать Subsys_JsHttpRequest.


Автор: Cheery
Дата сообщения: 28.03.2006 21:11
Oleg_Tarusov

Цитата:
Ладно, наверное, придется осваивать Subsys_JsHttpRequest

твое право.. могу лишь сказать, что на борде текст с помощью Ajax выдается в 1251 для всех браузеров кроме IE.. для него специально идет UTF
Автор: UncoNNecteD
Дата сообщения: 28.03.2006 21:25
Oleg_Tarusov
Можно конечно сказать что дело только в скорости, но тут есть нечто другое, типа динамика, то есть возможность строить принципиально другие интерфесы, которые без AJAX невозможны.
Простейший пример - Google Suggest... дело в скорости? В общем да, но построить такой интерфейс без аякса - с любой скоростью сети и сервера, например, - полная утопия.
Автор: Oleg_Tarusov
Дата сообщения: 30.03.2006 22:14
UncoNNecteD
Благодарю.

Короче мне нужен пример того, как c помощью xajax добавлять в элементы русский текст.
Автор: Cheery
Дата сообщения: 30.03.2006 22:18
Oleg_Tarusov

Цитата:
Короче мне нужен пример того, как c помощью xajax добавлять в элементы русский текст.

я опять тебя не понимаю.. пример чего? ты пробовал возвращать текст в уникоде? очевидно, что нет.. тогда пример чего тебе нужен?
Автор: Oleg_Tarusov
Дата сообщения: 30.03.2006 22:20
Как сделать так, чтобы текст возвращался в уникоде, а пока постараюсь это сам поискать.
Автор: Cheery
Дата сообщения: 30.03.2006 22:22
Oleg_Tarusov
PHP & charset UTF-8
Perl: Перекодировка кириллического текста (win/koi/iso/utf)
Автор: Oleg_Tarusov
Дата сообщения: 30.03.2006 22:25

Цитата:
на борде текст с помощью Ajax выдается в 1251 для всех браузеров кроме IE.. для него специально идет UTF
А почему просто не выдавать текст в UTF для всех?
Автор: Cheery
Дата сообщения: 30.03.2006 23:18
Oleg_Tarusov

Цитата:
А почему просто не выдавать текст в UTF для всех.

для экономии трафика.
Автор: Oleg_Tarusov
Дата сообщения: 01.04.2006 12:51
Вот такая прога выдает ошибки, если в элемент добавляется русский текст.
Может кто знает как исправить.
<?php
/* Всегда подключаем файл из библиотеки xAjax*/
require ('xajax.inc.php');
function doTimestamp() {
/* Эта функция возвращает информацию о текущем времени */
/* создаем экземпляр класса xajaxResponse */
$objResponse = new xajaxResponse();
$time = time();
$sOut = "Текущее время сервера: ".date("H", $time)." часов, ";
$sOut .= date("i", $time)." минут и ";
$sOut .= date("s", $time)." секунд. В формате UNIX: $time";
/* Устанавливаем объект xajaxResponse для обновления элемента HTML у которого ID

= 'timebox' */
$objResponse->addAssign("timebox", "innerHTML", $sOut);
/* возвращаем результат функции */
return $objResponse->getXML();
}
/* создаем экземпляр класса xajax */
$objAjax = new xajax();
$objAjax->setCharEncoding("windows-1251");
/* регистрируем функцию 'doTimestamp' для объекта xajax */
$objAjax->registerFunction('doTimestamp');
/* обрабатываем запрос */
$objAjax->processRequests();
require_once('templates/template_head.php');
?>
<html>
<head>
<?php $objAjax->printJavascript(); ?>
</head>
<body>
<h1>Пример 1: Получение времени сервера</h1>
<p>Нажав на кнопку ниже, время будет запрошено с сервера и показано внутри

прямоугольной области без перезагрузки страницы.</p>
<div id="timebox">&nbsp;</div>
<input type="button" class="button" value="Посмотреть время"

onclick="xajax_doTimestamp();" />
<p><a href="demonstratie1.phps">Посмотреть исходный код</a></p>
<p id="menulink"><a href="demonstratie.php">&raquo; Назад на главную

страницу</a></p>
<?php
require_once('templates/template_foot.php');
?>
</body>
</html>


Добавлено:
Эта же прога без комментов.
<?php
require ('xajax.inc.php');
function doTimestamp() {
$objResponse = new xajaxResponse();
$time = time();
$sOut = "Текущее время сервера: ".date("H", $time)." часов, ";
$sOut .= date("i", $time)." минут и ";
$sOut .= date("s", $time)." секунд. В формате UNIX: $time";
$objResponse->addAssign("timebox", "innerHTML", $sOut);
return $objResponse->getXML();
}
$objAjax = new xajax();
$objAjax->setCharEncoding("windows-1251");
$objAjax->registerFunction('doTimestamp');
$objAjax->processRequests();
require_once('templates/template_head.php');
?>
<html>
<head>
<?php $objAjax->printJavascript(); ?>
</head>
<body>
<h1>Пример 1: Получение времени сервера</h1>
<p>Нажав на кнопку ниже, время будет запрошено с сервера и показано внутри

прямоугольной области без перезагрузки страницы.</p>
<div id="timebox">&nbsp;</div>
<input type="button" class="button" value="Посмотреть время"

onclick="xajax_doTimestamp();" />
<p><a href="demonstratie1.phps">Посмотреть исходный код</a></p>
<p id="menulink"><a href="demonstratie.php">&raquo; Назад на главную

страницу</a></p>
<?php
require_once('templates/template_foot.php');
?>
</body>
</html>


Автор: 6epcepk
Дата сообщения: 20.04.2006 22:14
Вообщем сделал я у себя добавление/редактирование/удаление комментариев на сайте с применением AJAX, очень понравилось.

Возникла идея переписать весь сайт с использованием данной технологии.

Беспокоит вопрос о том, как будут боты индексировать сайт. (N страниц назад кто-то обмолвился, что с этим возможно возникнут проблемы.)

Так же было бы неплохо услышать "подводные камни" от тех, кто уже писал подобные проекты.
Автор: Paha_W
Дата сообщения: 21.04.2006 07:23
6epcepk
а линк на сайт можно (или хотя бы скришоты посмотреть) и если не секрет выкладывать по кусочкам ваш труд, а коментарии мы будем у вас спрашивать.
---
И на мой взгляд не стоит строить весь сайт на данной технологии, на форуме где-то описывалось что человек создал форум на данной технологии, можешь посмотреть AJAX
Автор: alextretyak
Дата сообщения: 23.04.2006 10:25
Paha_W

Цитата:
И на мой взгляд не стоит строить весь сайт на данной технологии

Почему? ИМХО, за этим будущее.. в любом случае. Двигаться то больше некуда.

6epcepk

Цитата:
Беспокоит вопрос о том, как будут боты индексировать сайт.

Я сейчас вот как раз этим вопросом активно и занимаюсь. И пока... что-либо хорошего сказать не могу. По-хорошему надо подождать недельки две, когда цикл поисковиков окончится, хотя уже сейчас видно, что что-то идёт не так.
Несколько дней назад я зарегил свой форум в основных поисковиках (Google, Yandex и Rambler). Последний выбрал потому, что после регистрации в Ramblers Top 100 этот поисковик хранит зарегеные сайты в "быстрой базе" и вносит страницы в индекс не раз в 2 недели, как "для всех", а примерно раз-два в сутки. На данный момент статистика обращений (самописный лог) показала (здесь только обращения роботов):
Fri, 21 Apr 2006 09:23:39 -- /?Lang=ru :: Yandex/1.01.001 (compatible; Win16; I) (основной индексирующий робот Яндекса)
Fri, 21 Apr 2006 12:41:18 -- /?Lang=ru :: Yandex/1.01.001 (compatible; Win16; I)
Sat, 22 Apr 2006 00:35:33 -- /?Lang=ru :: WebAlta Crawler/1.3.6 (http://www.webalta.ru/bot.h...
Sat, 22 Apr 2006 14:43:09 -- /?Lang=ru :: msnbot/1.0 (+http://search.msn.com/msnbot.htm)
Как видно, результаты пока неутешительные.. хотя...
Вообще, AFAIK, поиковые роботы действуют примерно по такой схеме: они обходят свой список-URL, загружая документы, а также добавляя в список-URL новые ссылки с просмотренных страниц - это образует цикл, длящийся около суток. На следующем цикле обходятся документы с учётом новых ссылок. (Если быть более точным, то происходит это как то так: весь список-URL, известных роботу, делится на несколько частей, за каждый такой "миницикл", паук обходит одну из частей списка, попутно запоминая новые URL (кот-х ещё нет в полном списке), найденные на просмотренных страницах. И на следующем цикле обходятся страницы из следующей части списка-URL, а также новые URL, запомненные в пред. цикле). В основную индексную базу изменения вносятся же гораздо реже. Пауки сначала лишь сохраняют "у себя" загруженные документы, и лишь раз в две недели добавляют их в индекс. Также есть множетсво вспомогательных роботов (простукивалок, зеркальщиков и т. д.), кот-е обходят страницы чаще или реже основного индексирующего робота (который сам может состоять из тучи серверов). Ещё я слышал, что поисковики сканируют страницы примерно так же, как их отображает Lynx. Но в этом текстовом браузере мой форум прекрасно обозревается, однако почему-то поисковики дальше заглавной страницы не пошли... то ли не заметили предназначенной для них (и текст. браузеров) ссылки, то ли просто ещё не успели (цикл не завершился).
Rambler же, кот-й должен чаще всего сканировать сайт, вообще не появлялся на гл. странице. Вообще, говорят, Rambler и Aport не индексируют "динамические" страницы (у кот-х в URL присутствуют ? или &), но вот что написано в http://www.rambler.ru/doc/faq.shtml:
Рамблер обрабатывает все "динамические" страницы с именами вида *.asp*, *.php*, *.pl*, */cgi-bin/* и т. п. для посещаемых сайтов (по данным top100), а также сайтов, содержащих уникальную информацию, полезную пользователям поисковой машины. Для остальных сайтов обрабатывается часть таких страниц.
Только что значит "обрабатывается часть таких страниц"...
Ну ладно. У меня просто в логе не учитывались обращения к "/", т.е. до редиректа на "/?Lang=ru", т.е. возможно на главную страницу Rambler всё же зашёл, но увидел, что она динамеческая, что ему не очень нравится, и не пошёл по редиректу. Сейчас вот добавил, в логе теперь эти обращения будут сохраняться... посмотрю, подтвердится предположение или нет.
Если кто ещё что знает про принципы работы поисковиков, прошу поделиться, а то просто так сидеть ждать "возможного" обхода пауками 2-4 недели как-то скучно. А потом после каждого исправления ещё 2 недели ждать... кошмар...
Автор: Brodyaga
Дата сообщения: 23.04.2006 11:04
Вероятно для сайтов на базе AJAX придется делать Non-Ajax версию, especially for поисковиков.
При заходе поисковика выводить данные ввиде обычного контента/форумной ветки, а пользователю соответственно в Аяксовом виде.
Наверное это единственный выход для индексации, до тех пор пока поисковики не начнут понимать Javascript.
Автор: 6epcepk
Дата сообщения: 23.04.2006 12:32

Цитата:
Вообще, говорят, Rambler и Aport не индексируют "динамические" страницы (у кот-х в URL присутствуют ? или &)

Данное суждение бродит по интернету очень давно. Но современные поисковые машины успешно индексируют динамические сайты.

Paha_W
У меня есть только "добавление/редактирование/удаление комментариев на сайте", как я писал выше, а сайт целиком переделать на AJAX только в планах (;

Что ж ... надо попробовать сделать элементарный сайтик и посмотреть как будет произведена индексация.
Автор: alextretyak
Дата сообщения: 23.04.2006 15:45
6epcepk

Цитата:
Данное суждение бродит по интернету очень давно. Но современные поисковые машины успешно индексируют динамические сайты.

Как сказать... вот что сказано в FAQ Апорта:
Документы, содержащие в Url символ "?", индексируются апортом выборочно, с использованием квотирования количества таких документов для каждого сайта. Размер квоты вычисляется автоматически в зависимости от ряда условий, в частности от индекса цитируемости сайта, и может, в частности, быть для некоторых сайтов нулевым.

Ещё в Google при большом числе параметров URL, разделённых & (больше 3-х вроде), страница переносится в "дополнительную индексную базу", кот-я обновляется уже с другой частотой, т.е. количество параметров URL-адреса может помешать для внесения в основной индекс.
Кстати, вот некоторые из рекомендаций веб-мастерам, которые даёт Google:
- Если Вы решите использовать динамические страницы (то есть такие, в URL-адресах которых содержится символ "?"), учтите, что не все "пауки" поисковых систем сканируют наряду со статическими страницами динамические.
- Не используйте в качестве параметра в URL-адресах "&id=", поскольку такие страницы мы не индексируем.
- Создавайте страницы для пользователей, а не для поисковых систем. Не вводите пользователей в заблуждение и не публикуйте разное содержание для поисковых систем и для пользователей. Клоакинг – а это называется именно так – не приветствуется.
Последнее, кстати, довольно спорное понятие, которое может очень сильно навредить сайту. Ребята из Google долго разбираться не будут, и даже если кто-нить пожалуется через формочку, могут особо не разбираясь навсегда исключить сайт из индекса. Проблема усугубяется тем, что многие поисковики могут сами распознавать "поисковый спам" и автоматически "банить" сайт, напр. тупо проверяя сайты двойным заходом робота с разными User-Agent. Так что:
Brodyaga

Цитата:
especially for поисковиков.

делать страницы может быть довольно опасно.
Автор: Brodyaga
Дата сообщения: 23.04.2006 16:23

Цитата:
делать страницы может быть довольно опасно.

Неправильно понял.
Я не собираюсь спамить поисковик, я предлагаю выводить для поисковика форум как стандартный форум, без Ajax.
Автор: alextretyak
Дата сообщения: 24.04.2006 00:54
Brodyaga
Ну тогда поясни фразу:

Цитата:
При заходе поисковика выводить данные ввиде обычного контента/форумной ветки, а пользователю соответственно в Аяксовом виде.

Как предполагаешь реализовать такое? Формально для определения того, кто смотрит страницу, есть два способа: через User-Agent и через IP. В обоих случаях это называется клоакингом и поисковики после того, как обнаружат, что содержимое страницы зависит от User-Agent или IP, могут забанить сайт. Им — роботам — абсолютно всё-равно для каких целей это сделано. Они, видите ли, считают, что должны (и могут) просматривать страницы в том виде, в каком их увидит пользователь, как будто сейчас 2000-й год.
Есть ещё третий способ, кот-й я пытаюсь исп-ть, но пока он чё-то не работает.
Автор: 6epcepk
Дата сообщения: 25.04.2006 21:45
Провел эксперимент с выявлением наличия индексации поисковиками сайта, построенного на AJAX. Для этого написал небольшой тестовый сайт.
Запрос №1 был проиндексирован (главная страница сайта).
Запрос №2 не был проиндексирован (переход по ссылке).
Автор: Cheery
Дата сообщения: 25.04.2006 21:49
6epcepk

Цитата:
Провел эксперимент с выявлением наличия индексации поисковиками сайтаб построенного на AJAX.

ты нашел кому скармливать.. остойнее поисковика чем рамблер еще не видел..
гуглю корми.
Автор: alextretyak
Дата сообщения: 26.04.2006 03:01
Итак, появилась новая информация (думаю, я буду информировать всех в этом топике о результатах, пока с этим вопросом окончательно не разберёмся):
Tue, 25 Apr 2006 21:05:08 :: StackRambler/2.0 -- /
Tue, 25 Apr 2006 21:12:43 :: StackRambler/2.0 -- /?Lang=ru
Tue, 25 Apr 2006 22:04:00 :: StackRambler/2.0 -- /?Lang=ru&NS
Все 3 раза робот заходил с одного ip (кстати я тогда не сказал, Яндекс заходил два раза тоже с одного ip, но на страницу с текстовой версией не пошёл).
Как видно, прогресс налицо. Остаётся дождаться следующего цикла обхода роботом Рамблера, и потом можно будет пробовать смотреть результаты поиска. Главное, что work around робот всё-таки заметил.

6epcepk
Пардон, конечно, но мне откровенно непонятно, КАК и ЧТО мог проиндексировать поисковик, если:
1. В Опере у меня сайт даже не работает.
2. В lynx зайти дальше указанной страницы невозможно.
3. Никаких workaround-ов я там явно не заметил.

Cheery

Цитата:
остойнее поисковика чем рамблер еще не видел..

А куда деваться? На мой форум гугл ещё вообще не заходил, хотя с момента регистрации прошла почти неделя. А рамблер... я ж всё писал уже, почему я в нём зарегился.
Автор: Cheery
Дата сообщения: 26.04.2006 03:14
alextretyak

Цитата:
1. В Опере у меня сайт даже не работает.

все ок
Version    8.51     
Build    7712     
Platform    Win32     
System    Windows XP

Цитата:
2. В lynx зайти дальше указанной страницы невозможно.

немудрено. такие вещи не для него делаются.
Автор: 6epcepk
Дата сообщения: 26.04.2006 07:22

Цитата:
А куда деваться? На мой форум гугл ещё вообще не заходил, хотя с момента регистрации прошла почти неделя. А рамблер... я ж всё писал уже, почему я в нём зарегился.

Именно по той же причине. Вообще зарагестировал я во всех поисковиках, ждем результатов.

alextretyak
1-2 пунктры уже ответил Cheery.
По третьему: заголовки, ключевые слова, хедеры - все есть. Что еще?




Кстати, на одном форуме проскакивало, что URL's можно подставлять при помощи mod_reqrite. Может у кого завалялся маленький прмерчик ?)
Автор: alextretyak
Дата сообщения: 26.04.2006 10:01
Cheery

Цитата:
Version 8.51

У меня в 8.01 не пашет. В FF 1.5 кстати тоже.
В IE6 — нормально. Ну ладно... это уже проблемы xajax...

Цитата:
немудрено. такие вещи не для него делаются.

Да дело не в том. Я и сам понимаю, что пользователей lynx по пальцам посчитать. НО, чтобы сайт индексировался поисковиком он как минимум должен нормально работать в lynx. (Но то, что он будет в нём работать — ещё не 100% гарантия нормальной индексации, просто это минимум). Цитата:
- Используйте для проверки сайта текстовый браузер, например, Lynx, потому что большинство "пауков" поисковых систем видят сайт точно так же, как Lynx.

6epcepk

Цитата:
заголовки, ключевые слова, хедеры - все есть. Что еще?

Как что? Понимание того, как вообще пауки могут проиндексировать ту страницу.

Цитата:
Вообще зарагестировал я во всех поисковиках, ждем результатов.

Каких результатов? Что ты хочешь от поисковика? Взять к примеру твой второй запрос. ЧТО он должен выдавать. Ссылку? Куда? Сюда — http://www.electures.ru/ajax/ ? Но там же нет текста, который ищет пользователь. Ну ладно, там по сути всего две ссылки, можно и методом тыка найти страницу, кот-ю ищешь, а если бы список был из 20-30 ссылок? Для чего поисковику вообще возвращать в результатах ссылку на эту страницу? Чтобы пользователи долго потом искали где же вообще искомый текст на странице, которую выдал поисковик, а потом просто перестали бы им пользоваться. Попытайся понять разработчиков роботов, они действуют прежде всего в своих интересах, а не ради веб-разработчиков. Да и к тому же, ни один поисковик не умеет (и не "будет уметь") анализировать javascript.
А конкретно в твоём случае, для той страницы, индексацию сделать вообще запросто. С помощью старого приёмчика, просто ставишь href для ссылок на страницы с текстовым содержимым лекций и всё. Нормальные браузеры будут выполнять js-код, а браузеры с выключенным js, а также текстовые браузеры и пауки будут переходить по ссылкам (напр. "./?content=1") на текстовые версии лекций, причём можно даже текстовые версии сделать просто как основную ajax-страницу, но только с заполненным содержимым <div id="content"></div>, тогда при поиске твоей второй фразы поисковик выдаст ссылку http://www.electures.ru/ajax/?content=2 , перейдя по которой в нормальном браузере откроется страница с нужным содержимым и возможность ajax-загрузки содержимого другой лекции. Тут никакого клоакинга и простой workaround. У меня всё гораздо сложнее, т.к. люблю я вечно писать в "html-стиле", когда тег <html> по стандарту как бы необязателен, <!DOCTYPE> и подавно... зачем место забивать? , <title> обязательно должен присутствовать в <head> по стандарту, но у меня его нет — а зачем, если все-равно стоит <meta name="robots" content="noindex">, теги <head> и <body> внутри <noscript>, который сам идёт после <script>.....</script> — вообще ЛОЛ, да и сам <noscript> не известно как поисковиками воспринимается, короче сплошная рыхлая почва. Именно поэтому я и решил обратиться сюда, может кто знает тонкости работы пауков. Т.к. если ты вот не исправишь свою страницу до захода остальных поисковых роботов, придётся ждать две недели. И так после каждого исправления. Поэтому мне и интересно узнать больше инфы, пока роботы ещё не зашли. В принципе и сейчас я могу у себя мное исправить, но интересно же, а вдруг и так сработает.
Автор: inside22
Дата сообщения: 15.05.2006 18:33
Подписываюсь на тему
Автор: N Sensey N
Дата сообщения: 07.06.2006 16:45
К ajax еще не притрагивался.. пришло время...

Нужно сделать проверку на существование имени в мускуле.. по нажатию на кнопку... что вроде того как на https://accountservices.passport.net/reg.srf?id=2&sl=1&lc=1033

Может есть что где почитать?
Автор: Church
Дата сообщения: 07.06.2006 17:01
N Sensey N
Что-нить типа этого. Не тестил. Возможны опечатки.

Код:
<script type="text/javascript">
function CheckLogin(f)
{
    var xmlObj = null
    if(window.XMLHttpRequest)
        xmlObj = new XMLHttpRequest()
    else if(window.ActiveXObject)
        xmlObj = new ActiveXObject("Microsoft.XMLHTTP")
    else return false
    xmlObj.onreadystatechange = function()
    {
        if (xmlObj.readyState == 4)
            if (xmlObj.status == 200)
            {
                if (xmlObj.responseText=='1') alert('Exists')
                else alert('No Exists)
            }
    }
//Получаем данные из поля "login"
    var name=f.elements['login'].value

//Отправляем данные
    xmlObj.open ('GET','check_login.php?name='+name,true)
    xmlObj.send(null)

}
</script>
<form>
<input type="text" name="login" />
<input type="submit" onclick="CheckLogin(this.form);return false" value="Check" />
</form>

Страницы: 1234567891011

Предыдущая тема: mod_rewrite: документация, готовые решения, вопросы


Форум Ru-Board.club — поднят 15-09-2016 числа. Цель - сохранить наследие старого Ru-Board, истории становления российского интернета. Сделано для людей.